Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 117
Temps de recherche: 0.0647s

médecine

L'intelligence artificielle peut prédire l'activité sur et hors cible des outils CRISPR qui ciblent l'ARN au lieu de l'ADN, selon une nouvelle recherche publiée dans Nature Biotechnology.

L'étude menée par des chercheurs de l'université de New York, de l'université Columbia et du New York Genome Center associe un modèle d'apprentissage profond à des écrans CRISPR pour contrôler l'expression des gènes humains de différentes manières, comme si l'on appuyait sur un interrupteur pour les éteindre complètement ou si l'on utilisait un bouton d'atténuation pour réduire partiellement leur activité. Ces contrôles précis des gènes pourraient être utilisés pour développer de nouvelles thérapies basées sur CRISPR.

CRISPR est une technologie d'édition de gènes qui a de nombreuses applications en biomédecine et au-delà, du traitement de la drépanocytose à la fabrication de feuilles de moutarde plus savoureuses. Elle fonctionne souvent en ciblant l'ADN à l'aide d'une enzyme appelée Cas9. Ces dernières années, les scientifiques ont découvert un autre type de CRISPR qui cible l'ARN à l'aide d'une enzyme appelée Cas13.

Les CRISPR ciblant l'ARN peuvent être utilisés dans un large éventail d'applications, notamment l'édition de l'ARN, l'élimination de l'ARN pour bloquer l'expression d'un gène particulier et le criblage à haut débit pour déterminer les candidats médicaments prometteurs. Des chercheurs de l'Université de New York et du New York Genome Center ont créé une plateforme de criblage CRISPR ciblant l'ARN et utilisant Cas13 pour mieux comprendre la régulation de l'ARN et identifier la fonction des ARN non codants. L'ARN étant le principal matériel génétique des virus, notamment du SRAS-CoV-2 et de la grippe, les CRISPR ciblant l'ARN sont également prometteurs pour le développement de nouvelles méthodes de prévention ou de traitement des infections virales. Par ailleurs, dans les cellules humaines, lorsqu'un gène est exprimé, l'une des premières étapes est la création d'ARN à partir de l'ADN du génome.

L'un des principaux objectifs de l'étude est de maximiser l'activité des CRISPR ciblant l'ARN sur l'ARN cible prévu et de minimiser l'activité sur d'autres ARN qui pourraient avoir des effets secondaires préjudiciables pour la cellule. L'activité hors cible comprend à la fois les mésappariements entre l'ARN guide et l'ARN cible, ainsi que les mutations d'insertion et de délétion. 

Les études antérieures sur les CRISPR ciblant l'ARN se sont concentrées uniquement sur l'activité sur la cible et les mésappariements ; la prédiction de l'activité hors cible, en particulier les mutations d'insertion et de délétion, n'a pas fait l'objet d'études approfondies. Dans les populations humaines, environ une mutation sur cinq est une insertion ou une délétion ; il s'agit donc d'un type important de cibles potentielles à prendre en compte dans la conception des CRISPR.

"À l'instar des CRISPR ciblant l'ADN tels que Cas9, nous prévoyons que les CRISPR ciblant l'ARN tels que Cas13 auront un impact considérable sur la biologie moléculaire et les applications biomédicales dans les années à venir", a déclaré Neville Sanjana, professeur agrégé de biologie à l'université de New York, professeur agrégé de neurosciences et de physiologie à l'école de médecine Grossman de l'université de New York, membre de la faculté principale du New York Genome Center et coauteur principal de l'étude. "La prédiction précise des guides et l'identification hors cible seront d'une grande valeur pour ce nouveau domaine de développement et pour les thérapies.

Dans leur étude publiée dans Nature Biotechnology, Sanjana et ses collègues ont effectué une série de criblages CRISPR de ciblage de l'ARN dans des cellules humaines. Ils ont mesuré l'activité de 200 000 ARN guides ciblant des gènes essentiels dans les cellules humaines, y compris les ARN guides "parfaitement adaptés" et les désadaptations, insertions et suppressions hors cible.

Le laboratoire de Sanjana s'est associé à celui de David Knowles, expert en apprentissage automatique, pour concevoir un modèle d'apprentissage profond baptisé TIGER (Targeted Inhibition of Gene Expression via guide RNA design) qui a été entraîné sur les données des cribles CRISPR. En comparant les prédictions générées par le modèle d'apprentissage profond et les tests en laboratoire sur des cellules humaines, TIGER a été capable de prédire l'activité sur cible et hors cible, surpassant les modèles précédents développés pour la conception de guides sur cible Cas13 et fournissant le premier outil de prédiction de l'activité hors cible des CRISPR ciblant l'ARN.

"L'apprentissage automatique et l'apprentissage profond montrent leur force en génomique parce qu'ils peuvent tirer parti des énormes ensembles de données qui peuvent maintenant être générés par les expériences modernes à haut débit. Il est important de noter que nous avons également pu utiliser l'"apprentissage automatique interprétable" pour comprendre pourquoi le modèle prédit qu'un guide spécifique fonctionnera bien", a déclaré M. Knowles, professeur adjoint d'informatique et de biologie des systèmes à la School of Engineering and Applied Science de l'université Columbia, membre de la faculté principale du New York Genome Center et coauteur principal de l'étude.

"Nos recherches antérieures ont montré comment concevoir des guides Cas13 capables d'éliminer un ARN particulier. Avec TIGER, nous pouvons maintenant concevoir des guides Cas13 qui trouvent un équilibre entre l'élimination sur la cible et l'évitement de l'activité hors cible", a déclaré Hans-Hermann (Harm) Wessels, coauteur de l'étude et scientifique principal au New York Genome Center, qui était auparavant chercheur postdoctoral dans le laboratoire de Sanjana.

 Les chercheurs ont également démontré que les prédictions hors cible de TIGER peuvent être utilisées pour moduler précisément le dosage des gènes - la quantité d'un gène particulier qui est exprimée - en permettant l'inhibition partielle de l'expression des gènes dans les cellules avec des guides de mésappariement. Cela peut être utile pour les maladies dans lesquelles il y a trop de copies d'un gène, comme le syndrome de Down, certaines formes de schizophrénie, la maladie de Charcot-Marie-Tooth (une maladie nerveuse héréditaire), ou dans les cancers où l'expression aberrante d'un gène peut conduire à une croissance incontrôlée de la tumeur.

Notre modèle d'apprentissage profond peut nous indiquer non seulement comment concevoir un ARN guide qui supprime complètement un transcrit, mais aussi comment le "régler", par exemple en lui faisant produire seulement 70 % du transcrit d'un gène spécifique", a déclaré Andrew Stirn, doctorant à Columbia Engineering et au New York Genome Center, et coauteur de l'étude.

En associant l'intelligence artificielle à un crible CRISPR ciblant l'ARN, les chercheurs pensent que les prédictions de TIGER permettront d'éviter une activité CRISPR hors cible indésirable et de stimuler le développement d'une nouvelle génération de thérapies ciblant l'ARN.

"À mesure que nous recueillons des ensembles de données plus importants à partir des cribles CRISPR, les possibilités d'appliquer des modèles d'apprentissage automatique sophistiqués sont de plus en plus rapides. Nous avons la chance d'avoir le laboratoire de David à côté du nôtre pour faciliter cette merveilleuse collaboration interdisciplinaire. Grâce à TIGER, nous pouvons prédire les cibles non ciblées et moduler avec précision le dosage des gènes, ce qui ouvre la voie à de nouvelles applications passionnantes pour les CRISPR ciblant l'ARN dans le domaine de la biomédecine", a déclaré Sanjana.

Cette dernière étude fait progresser la large applicabilité des CRISPR ciblant l'ARN pour la génétique humaine et la découverte de médicaments, en s'appuyant sur les travaux antérieurs de l'équipe de l'Université de New York pour développer des règles de conception de l'ARN guide, cibler les ARN dans divers organismes, y compris des virus comme le SRAS-CoV-2, concevoir des protéines et des ARN thérapeutiques, et exploiter la biologie de la cellule unique pour révéler des combinaisons synergiques de médicaments contre la leucémie.

Auteur: Internet

Info: L'IA combinée à CRISPR contrôle précisément l'expression des gènes par l'Université de New York. https://phys.org/, 3 juillet 2023 - Nature Biotechnology. Prediction of on-target and off-target activity of CRISPR-Cas13d guide RNAs using deep learning, Nature Biotechnology (2023). DOI: 10.1038/s41587-023-01830-8

[ génie génétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

songes

Comment utiliser les rêves comme source d'inspiration créative

En s'inspirant de Thomas Edison et de Salvador Dalí, des chercheurs montrent que le modelage de l'imagerie des rêves peut susciter des idées créatives pour résoudre un problème spécifique.

(Photo de Salvador Dalí, avec ce texte) Dali avait des moyens originaux pour tirer une inspiration artistique de ses rêves, par exemple en mettant du parfum sur ses paupières ou en lâchant un objet pour se réveiller afin de se souvenir du contenu de ses rêves.)

Structure du benzène, Google et Frankenstein : Qu'ont en commun ces icônes de la science, de la technologie et de la littérature ? Elles  font partie des nombreuses découvertes et inventions qui auraient été inspirées par un rêve.

Pendant des décennies, les spécialistes du sommeil ont réfléchi au lien entre le rêve et l'inspiration créatrice. Ils ont longtemps pensé que ces idées provenaient de la phase de sommeil à mouvements oculaires rapides (REM), riche en rêves, et qui commence une heure ou plus après le début du cycle de sommeil. Mais de nouvelles données mettent en lumière une phase du sommeil beaucoup plus précoce - la zone crépusculaire qui sépare le sommeil de l'éveil - comme terrain fertile pour un élan créatif.

Dans une étude publiée le 15 mai dans Scientific Reports, une équipe de chercheurs montre que les personnes qui font de brèves siestes précédant l'endormissement obtiennent des résultats plus élevés quant aux critères de créativité que celles qui se lancent dans les mêmes tâches créatives après être restées éveillées. "L'importance de cet état de sommeil précoce pour la créativité a fait l'objet de spéculations, mais à ma connaissance, il s'agit de la meilleure étude démontrant sa valeur", déclare Jonathan Schooler, psychologue cognitif à l'université de Californie à Santa Barbara, qui n'a pas participé à l'étude.

De plus, les scientifiques ont découvert qu'ils pouvaient même exercer un certain contrôle sur le processus de rêve. Pour ce faire, ils ont orienté les rêves des participants vers un sujet spécifique. Plus les participants rêvaient de ce thème, plus ils étaient créatifs dans les tâches qui s'y rapportaient. "C'est à peu près ce qui nous permet de dire que rêver d'un sujet améliore la créativité ultérieure sur ce sujet", déclare Robert Stickgold, neuroscientifique cognitif et chercheur sur les rêves à la Harvard Medical School, qui faisait partie de l'équipe de l'étude.

L'expérience s'est appuyée sur un détecteur de sommeil en forme de gant appelé Dormio, mis au point par une équipe comprenant le co-chercheur principal Adam Haar Horowitz, chercheur postdoctoral au Massachusetts Institute of Technology. Dormio suit le début du sommeil en surveillant le tonus musculaire, la conductance de la peau et la fréquence cardiaque par l'intermédiaire de contacts sur le poignet et la main. Il communique avec une application qui émet des messages vocaux pour les rêves et enregistre les rapports de rêves.

Plus d'un penseur célèbre a tiré parti de la première phase de transition dans le sommeil, appelée stade 1 du sommeil non REM (sans mouvements oculaires rapides - N1), pour générer des idées créatives. Le peintre Salvador Dalí s'assoupissait délibérément en tenant un jeu de clés au-dessus d'une plaque de métal lorsqu'il réfléchissait à une idée de peinture. Au fur et à mesure qu'il s'assoupissait, les muscles de sa main se détendaient et il laissait tomber les clés qui heurtaient la plaque et le réveillaient, et il gardait l'image de son rêve. Thomas Edison aurait utilisé une technique similaire avec des billes de métal au lieu de clés pour obtenir des idées à intégrer dans ses inventions.

En 2021, une équipe de chercheurs de l'Institut du cerveau de Paris a rapporté certaines des premières preuves solides comme quoi Dalí et Edison étaient sur la bonne voie. Ils ont demandé à des personnes de faire de courtes siestes après les avoir exposées à des problèmes de mathématiques pour lesquels existait un raccourci caché. Parmi la grande majorité des personnes n'ayant pas vu le raccourci tout de suite, celles qui ont fait une sieste au stade N1 furent presque trois fois plus efficaces que celles n'ayant pas fait de sieste pour trouver la meilleure solution lorsqu'elles s'attaquaient à de nouveaux problèmes nécessitant de mettre en œuvre les mêmes connaissances mathématiques.

Stickgold, Haar Horowitz et leurs collègues ont voulu vérifier l'idée que le rêve était l'intermédiaire clé pour générer des éclats de perspicacité pendant le stade N1. Avant la publication de l'étude de 2021 sur les mathématiques, les chercheurs ont entrepris une étude contrôlée sur le rêve, dans laquelle ils ont incité des personnes à rêver de quelque chose de spécifique, comme un arbre.

Ils ont recruté 50 personnes pour une "étude sur la sieste" de l'après-midi - intitulé qui a vraisemblablement attiré les personnes qui aiment faire la sieste, bien que les chercheurs n'aient en fait demandé qu'à la moitié des participants de dormir dans le cadre de l'étude. Alors qu'ils portaient Dormio, les participants se sont endormis et l'application liée à Dormio leur a demandé de "penser à un arbre" ou de "penser à observer leurs pensées". Une à cinq minutes plus tard, l'application les réveillait en leur demandant de raconter leur rêve. Ce cycle s'est répété pendant 45 minutes, produisant en moyenne cinq récits de rêve par personne. Les personnes à qui l'on a demandé de rester éveillées ont laissé leur esprit vagabonder tout en recevant des instructions similaires. (Les chercheurs ont créé une version simplifiée de ce protocole d'incubation de rêves, accessible sur le web, que vous pouvez essayer chez vous).

Parmi les siesteurs qui ont reçu l'instruction sur les arbres, tous sauf un ont déclaré avoir rêvé d'arbres ou de parties d'arbres, alors qu'une seule personne parmi les siesteurs ayant reçu l'instruction plus générale l'a fait. L'un d'entre eux a décrit des "arbres se divisant en une infinité de morceaux" et s'est retrouvé dans le désert avec "un chaman assis sous l'arbre avec moi".

Les participants ont ensuite passé trois tests de créativité : Ils ont écrit une histoire créative dans laquelle figurait le mot "arbre". Ils ont énuméré "toutes les utilisations alternatives créatives" qu'ils pouvaient imaginer pour un arbre. Enfin, ils ont écrit le premier verbe qui leur venait à l'esprit pour chacun des 31 noms qui se rapportaient, plus ou moins, aux arbres. La créativité des réponses a été évaluée par des personnes qui ne savaient pas qui faisait la sieste ou qui avait reçu l'invitation à parler d'un arbre. Ces évaluations ont été combinées en un indice de créativité globale.

Les personnes ayant fait la sieste et qui avaient reçu l'indice de l'arbre ont obtenu les scores de créativité les plus élevés. "Il existe un lien objectif et expérimental entre l'incubation d'un rêve spécifique et la créativité post-sommeil autour de ce sujet", explique Haar Horowitz. "Cela valide des siècles de rapports anecdotiques de personnes qui se trouvent dans l'espace créatif.

En outre, plus une personne fait référence à des arbres, plus son score de créativité est élevé. "Plus vous rêvez d'un arbre, meilleures sont vos performances ultérieures", explique Kathleen Esfahany, étudiante de premier cycle au M.I.T., qui a codirigé l'étude avec Haar Horowitz. Les personnes semblent utiliser leurs rêves pour trouver des idées pour ces tâches, ajoute Kathleen Esfahany. Par exemple, une personne ayant rêvé que son corps était en bois a écrit une histoire sur un "roi chêne" qui portait une "couronne de feuilles" et dont le corps était tantôt "en bois", tantôt "en lumière".

L'ensemble de ces données indique que le rêve pendant N1 est un ingrédient actif de la créativité, comme l'ont supposé les chercheurs. "Il s'agit d'une étude pionnière", déclare Tore Nielsen, chercheur sur le rêve à l'Université de Montréal, qui n'a pas participé à l'étude. "Personne n'a démontré expérimentalement que le fait de rêver de quelque chose au début du sommeil est en fait lié à la créativité qui s'ensuit.

Nielsen et d'autres chercheurs estiment que l'étude est de petite envergure et qu'elle doit être reproduite. En outre, les résultats des tâches de créativité individuelles (par opposition au résultat composite) n'étaient pas significativement plus élevés chez les personnes qui ont fait une sieste guidée que chez celles qui n'ont pas été guidées, explique Penny Lewis, neuroscientifique à l'université de Cardiff au Pays de Galles, qui n'a pas participé à l'étude. "Je pense que leurs données montrent de manière convaincante que le fait de passer un certain temps dans le stade 1 du sommeil - c'est-à-dire le sommeil très léger qui se produit lorsque vous vous endormez - conduit à de meilleures performances dans ces trois tâches", explique Penny Lewis. Mais l'idée "que l'incitation conduit à ces effets devrait être traitée avec prudence parce que les statistiques ne sont pas très solides".

Une mesure objective et automatisée de la créativité, nommée "distance sémantique", indiquait qu'une brève sieste favorise l'inventivité, mais qu'il n'y a pas d'avantage supplémentaire lorsqu'on ajoutait une incitation à l'idée d'un arbre. Dans cette mesure, un ordinateur évalue la similarité des paires de mots produites dans chaque tâche de créativité, une similarité moindre étant liée à une plus grande créativité. Néanmoins, cette mesure laisse entrevoir un mécanisme de stimulation de la créativité au cours de la période N1. "Elle suggère que les gens sont capables de faire des associations plus éloignées et donc de trouver des ponts [conceptuels] qu'ils n'auraient pas pu découvrir autrement", explique M. Schooler.

L'étude ne portait que sur un seul motif, impliquant un arbre, de sorte que le système doit être testé sur d'autres sujets et éventuellement utilisé pour résoudre des problèmes réels. "C'est passionnant car, en principe, il s'agit d'une technologie que les gens pourraient utiliser eux-mêmes pour stimuler leur propre créativité", explique M. Schooler.

Il semble que les personnes désireuses de l'essayer ne manquent pas. "Des gens très différents sont venus frapper à la porte du laboratoire et ont demandé à faire des rêves", déclare Haar Horowitz.

Auteur: Internet

Info: https://www.scientificamerican.com/. Par Ingrid Wickelgren, 15 mai 2023

[ subconscient ]

 

Commentaires: 0

Ajouté à la BD par miguel

surnaturel

Les scientifiques ont-ils finalement démontré des phénomènes psychiques ? De nouvelles études montrent que les gens peuvent prévoir des événements futurs.
Dans "au travers du miroir" de Lewis Carroll, la reine blanche dit a Alice que dans son pays, la mémoire travaille dans deux sens. Non seulement la reine peut se rappeler de choses du passé, mais elle se rappelle également de "choses qui se produiront la semaine d'après." Alice essaye de discuter avec la reine, énonçant : "je suis sûr que la mienne ne va que dans un sens... je ne peut me rappeler de choses avant qu'elles ne se produisent." La reine répond, "c'est une sorte de faiblesse, si ta mémoire ne fonctionne qu'en arrière."
Combien nos vies seraient meilleures si nous pouvions vivre dans le royaume de la reine blanche, où notre mémoire travaillerait en arrière et en avant. Dans un tel monde, par exemple, on pourrais faire un examen et étudier après coup pour s'assurer qu'on l'a bien réussi dans le passé. Bon, la bonne nouvelle est que selon une série récente d'études scientifiques de Daryl Bem, nous vivons déjà dans pareil monde !
Le Dr.Bem, psychologue social à l'université de Cornell, a entrepris une série d'études qui seront bientôt publiées dans un des journaux de psychologie les plus prestigieux. Au travers de neuf expériences, Bem a examiné l'idée que notre cerveau a la capacité de réfléchir non seulement sur des expériences antérieures, mais peut également en prévoir de futures. Cette capacité de "voir" est souvent désignée comme phénomène psi.
Bien que des recherches antérieures aient été conduites sur de tel phénomènes - nous avons tous vu ces films où des personnes regardent fixement des cartes de Zener avec une étoile ou des lignes ondulées dessus - de telles études n'arrivent pas vraiment à atteindre le statut seuil "de recherche scientifique." Les études de Bem sont uniques du fait qu'elles présentent des méthodes scientifiques standard et se fondent sur des principes bien établis en psychologie. Cela donne essentiellement des résultats qui sont considérés comme valides et fiables en psychologie. Par exemple, l'étude améliore la mémoire, et facilite le temps de réponse - mais ici on inverse simplement l'ordre chronologique.
Par exemple, nous savons tous que répéter un ensemble de mots rend plus facile le fait de s'en souvenir dans l'avenir, mais si la répétition se produit après le rappel ?... Dans une des études, on a donné une liste de mots à lire à des étudiants et, après lecture de la liste, on les a confrontés à un test surprise pour voir de combien de mots ils se rappelaient. Ensuite, un ordinateur a aléatoirement choisi certains des mots sur la liste et on a demandé aux participants de les retaper plusieurs fois à la machine. Les résultats de l'étude ont montré que les étudiants étaient meilleurs pour se remémorer les mots apparus dans l'exercice qui avait suivi, donné par surprise et fait au hasard. Selon Bem, la pratique de ces mots après le test a permis d'une façon ou d'une autre aux participants "de revenir en arrière dans le temps pour faciliter le souvenir."
Dans une autre étude, Bem examiné si l'effet bien connu d'amorçage pouvait également être inversé. Dans une étude typique d'amorçage, on montre à des gens une photo et ils doivent rapidement indiquer si la photo représente une image négative ou positive. Si la photo est un chaton câlin, on appuie sur le bouton "positif" et si la photo représente des larves sur de la viande en décomposition, on appuie sur le bouton "négatif". Une recherche de masse a montré combien l'amorçage subliminal peut accélérer la capacité à classer ces photos. L'amorçage subliminal se produit quand un mot est clignoté sur l'écran tellement rapidement que le cerveau conscient ne l'identifie pas, mais le cerveau inconscient le fait. Ainsi on voit juste un flash, et si on vous demande de dire ce que vous avez vu, vous ne pouvez pas. Mais, profondément, votre cerveau inconscient a vu le mot et l'a traité. Dans l'étude d'amorçage, on constate uniformément que les gens qui s'amorcent avec un mot conformé à la valence de la photo la classeront par catégorie plus vite. Ainsi si on clignote rapidement le mot "heureux" avant l'image de chaton, la personne cliquera le bouton "positif" encore plus vite, mais on clignote à la place le mot "laid" avant, la personne prendra plus longtemps pour répondre. C'est parce que l'amorçage avec le mot "heureux" fait que l'esprit de la personne est prêt à recevoir un truc heureux.
Dans l'étude rétroactive d'amorçage de Bem, on a simplement inversé l'ordre du temps, faisant clignoter le mot amorcé après que la personne ait classé la photo. Ainsi on montre l'image du chaton, la personne sélectionne si elle est positive ou négative, et alors on choisit aléatoirement d'amorcer avec un bon ou mauvais mot. Les résultats ont prouvé que les gens sont plus rapides à classer des photos par catégorie quand elle était suivie d'un mot amorce cohérent. A tel point que non seulement le fait qu'on classe le chaton plus vite quand il est précédé par un bon mot, on le classera également plus vite par catégorie si il est suivit du bon mot après coup. C'est comme si, alors que les participants classaient la photo, leur cerveau savait quel mot viendrait après, qui facilite leur décision.
Voilà juste deux exemples des études que Bem conduit, mais les autres ont montrés des effets "rétroactifs" semblables. Les résultats suggèrent clairement que des gens moyens "non psychiques" semblent pouvoir prévoir des événement futurs.
La question qu'on peut se poser est "quel est l'ordre de grandeur de la différence ?" Ce fait d'étudier un essai après qu'il se soit produit, ou l'amorçage qu'on a eu avec un mot après avoir classé la photo donne un changement énorme, ou est-ce juste une légère bosse dans les statistiques ? Quelle est la taille de effet ?. Il est vrai que les tailles d'effet dans les études de Bem sont petites (par exemple, seulement légèrement plus grandes que la chance). Mais il y a plusieurs raisons pour lesquelles nous ne devons pas négliger ces résultats basés sur de petites, mais fortement conformées, tailles d'effet.
Tout d'abord, au travers ses études, Bem a constaté que certaines personnes ont des résultats plus forts que d'autres. En particulier les gens en grande quête de stimulus - aspect d'extraversion où les gens répondent plus favorablement aux nouveau stimulus. Pour des différences de l'ordre d'environ deux fois plus d'efficacité qu'une personne moyenne. Ceci suggère que des gens sont plus sensibles aux effets psi que d'autres.
Deuxièmement ces petites tailles d'effet ne sont pas rare en psychologie (et pour d'autres sciences). Par exemple la moyenne les études de Bem eut pour résultat des tailles d'effets assez petites, mais tout aussi grandes - ou plus grandes - que certains effets bien établis : lien entre l'aspirine et l'empêchement de crise cardiaque, prise de calcium et os améliorés, fumée et cancer du poumon, utilisation de condom et protection du HIV, etc.... Cohen précise que de telles tailles d'effet se produisent plus facilement quand on est dans les premiers stades d'exploration d'une matière, quand les scientifiques commencent juste à découvrir pourquoi l'effet se produit et quand il est le plus susceptible de se produire.
Ainsi si nous prenons ces phénomènes psi comme vrai, comment pouvons nous alors les expliquer sans jeter à la poubelle notre compréhension du temps et de la physique ? Bon, la vérité est que ces effets ressemblent vraiment beaucoup à ce que la physique moderne dit du temps et de l'espace. Par exemple, Einstein a cru que le seul acte d'observer quelque chose pouvait affecter cette chose là, phénomène qu'il appela "spooky action à distance."
De même, la physique quantique moderne a démontré que les particules légères semblent savoir ce qui se trouve en avant d'elles dans le temps et qu'elles ajusteront leur comportement en conséquence, quoique le futur événement ne se soit pas produit encore. Par exemple dans l'expérience classique "de la double fente" les physiciens ont découvert que les particules légères répondent différemment si elles sont observées. Mais en 1999, les chercheurs ont poussé cette expérience plus loin en se demandant "ce qui se produirait si l'observation avait lieu après que les particules légères aient été déployées. "Tout à fait curieusement, ils ont démontré que les particules agissaient de la même manière, comme si elles savaient qu'elles seraient observées plus tard..." même si cela ne s'était pas encore produit.
De tels effets, "dingues", avec le temps semblent contredire le bon sens et essayer de les comprendre peut donner un sacré mal de tête. Mais les physiciens ont simplement appris à l'accepter. Comme disait une fois le Dr. Chiao, physicien de Berkeley, au sujet de la mécanique quantique, "c'est complètement contre intuitif et extérieur à notre expérience journalière, mais nous (les physiciens) y sommes habitués"
Ainsi, alors que les humains perçoivent le temps comme linéaire, cela ne signifie pas nécessairement qu'il en soit ainsi. Donc, en tant que bons scientifiques, nous ne devrions pas nous laisser influencer par les préjugés sur ce que nous étudions, même si ces idées préconçues reflètent nos idées de base sur la façon dont le temps et l'espace fonctionnent.
Le travail du DR. Bem est un provocation pour la pensée, et comme toute science révolutionnaire est censée faire, il apporte plus de questions que de réponses. Si nous mettons entre parenthèses nos croyances sur le temps et acceptons que le cerveau est capable d'une prise sur le futur, la prochaine question est : comment le fait-il ?. Ce n'est pas parce que l'effet semble "surnaturel" que cela signifie que la cause le soit. Beaucoup de découvertes scientifiques furent considérées comme exotiques par le passé, convenant davantage à la science-fiction (par exemple : la terre est ronde, il y a des organismes microscopiques, etc...). Une recherche future est nécessaire pour explorer les causes exactes des effets de ces études
Comme beaucoup de nouvelles explorations en science, les résultats de Bem peuvent avoir un effet profond sur ce que nous savons et avons accepté comme "vrai". Mais pour certains d'entre vous, peut-être que ces effets ne sont pas une si grande surprise, parce que quelque part, profondément à l'intérieur, nous savons déjà que nous en aurions connaissance aujourd'hui !

Auteur: Internet

Info: Fortean Times, Octobre 11, 2010

[ sciences ] [ prémonition ]

 
Mis dans la chaine

Commentaires: 0

réfléchir

Pourquoi le slow thinking gagne

Être rapide, c'est travailler fort et être intelligent - de la réponse aux appels 24 heures sur 24 à la présence d'esprit la plus vive dans les réunions. La lenteur est pour les paresseux, les oisifs, voire les abrutis. Lorsque nous parlons de ralentir, nous entendons généralement qu'il faut y aller doucement, certainement pas être plus productif.

Tout le monde se souvient de l'histoire de la tortue et du lièvre, mais personne ne semble avoir appris la leçon qu'elle enseigne : La lenteur l'emporte.

Il s'avère que la fable a raison. La recherche suggère régulièrement que la pensée dite lente exige une pensée plus disciplinée et donne lieu à des décisions plus productives que les réactions rapides, qui sont moins précises ou moins utiles. Et la lenteur de la pensée - comme la tortue, lentement mais sûrement - fait son chemin par de nouvelles interventions dans des domaines aussi disparates que la justice pénale, le sport, l'éducation, l'investissement et les études militaires.

La maîtrise de cette dualité dans la nature humaine est au cœur du slow thinking. Son principal partisan, l'ancien psychologue de Princeton Daniel Kahneman, seul non-économiste à avoir reçu le prix Nobel d'économie, décrit ces impulsions contraires dans son livre "Thinking, Fast and Slow" de 2011. La plupart du temps, affirme Kahneman, les gens comptent sur la rapidité - mais c'est en fait la lenteur qui permet de prendre de meilleures décisions. "Shane Frederick, professeur à la Yale's School of Management et collaborateur fréquent de Kahneman, explique comment les gens peuvent aller au-delà de l'impulsion la plus évidente qu'ils ressentent d'abord".

La lenteur de la réflexion n'a rien de nouveau pour les amateurs de sport, grâce au best-seller de Michael Lewis en 2003, "Moneyball", qui explique comment le manager Billy Beane a transformé les Oakland Athletics à court d'argent en une équipe compétitive utilisant l'analyse de données. Et après que l'approche délibérée de Beane ait révolutionné le baseball, les chercheurs et les réformateurs sont confiants dans le fait que le même genre de résultats peut être observé lorsque le concept est appliqué à des problèmes sociaux majeurs, comme la violence chronique ou les taux élevés de décrochage chez les élèves du secondaire.

Une nouvelle étude menée par des chercheurs de l'Université de Chicago, de Harvard, Northwestern et de l'Université de Pennsylvanie a révélé que le slow thinking pour les jeunes hommes vivant dans les quartiers les plus touchés par les gangs de Chicago réduisent leurs chances de participer à la criminalité et améliorent leurs résultats scolaires jusqu'à 44 %.

Le programme Becoming a Man du "Chicago nonprofit Youth Guidance's Becoming" a réalisé les deux tiers des interventions cognitives recensées dans l'étude, ainsi que celles qui étaient statistiquement les plus efficaces.

La Maison-Blanche a récemment donné 10 millions de dollars à la ville de Chicago, en partie pour étendre et étudier Becoming a Man, qui dessert environ 2 000 élèves dans près de 40 écoles publiques. Le programme, lancé en 2004, cible les jeunes garçons de la 7e à la 12e année qui ont été signalés par les enseignants et les conseillers comme ayant de mauvais résultats scolaires et à risque d'être victimes de gangs.

La violence qui s'empare de la ville est un problème qu'il est temps de repenser radicalement : Il y a eu plus de 200 meurtres cette année et plus de 1 269 fusillades.

À l'école secondaire Bronzeville Scholastic Institute High School, dans le South Side de Chicago, Adeeb Odeh, conseiller en orientation, a récemment lancé à ses élèves un défi de fin d'année pour mettre en œuvre ce qu'ils ont appris lors de la dernière année. Depuis le début de l'année scolaire, ils ont effectués plusieurs étapes avec des exercices chronométrés visant à tester leur concentration et leur patience sous pression.

Dans un exercice, les élèves empilént 36 gobelets en plastique en pyramide en trois minutes. Ceux qui ont réussi ont gardé un rythme régulier jusqu'à la dernière coupe, tandis que la peur de la pression du temps a conduit les autres à se précipiter et à voir leurs pyramides s'effondrer. Un autre exercice exigeait que les élèves tirent à tour de rôle des lancers francs dans un panier de basket-ball tandis que d'autres les tentaient de les décourager activement en criant et en tenant des pancartes genre "Tu ne peux pas le faire" ou "Boo !"

"C'est comme une métaphore de la vie réelle, où il faut se concentrer en se distrayant ", dit Jannie Kirby, porte-parole de l'orientation des jeunes.

Anuj Shah, professeur à l'Université de Chicago, coauteur de l'étude Becoming a Man, note que les étudiants du programme apprennent à penser lentement en prenant conscience de leurs impulsions réflexives dans des situations très variables.

"Très souvent, nous nous laissons emporter par l'instant présent " dit Shah. "Le principe fondamental [de la pensée lente,¨] est que nous avons des réactions automatiques qui dictent nos pensées, nos sentiments et notre comportement. Si tu peux comprendre ta pensée, tu peux comprendre comment elle affecte ton comportement."

Selon Shah, une astuce pour prendre conscience de ces tendances automatiques, qu'il s'agisse de colère ou de précipitation dans les postulats, est de prendre un moment et de s'imaginer sortir de la situation qui se présente. "Mettez la décision dans son contexte. Pensez à ce qu'une caméra verrait et ce qu'un tiers neutre verrait."

Faire ses devoirs, c'est-à-dire raisonner étape par étape à travers un problème, dit Frederick, est l'essence même du slow thinking. "c'est étonnant de constater à quel point les opinions ont tendance à s'adoucir rapidement lorsqu'il y a des données à portée de main ", dit-il. "C'est le moyen parfait d'échapper à vos préjugés. Quel que soit votre parti pris, ça n'a pas d'importance - mettez les chiffres et cela neutralise efficacement tout parti pris que vous pourriez avoir."

Frederick est peut-être mieux connu pour avoir créé le "Test de Réflexion Cognitive", une mesure simple pour savoir si une personne résout un problème "rapidement avec peu de délibération consciente" ou par la réflexion et la pensée lente. Kahneman inclut le test dans son livre.

Il a trois questions :

1) Une batte et une balle coûtent 1,10 $. La batte coûte 1,00 $ de plus que la balle. Combien coûte la balle ? ____ cents

2) S'il faut à cinq machines cinq minutes pour faire cinq gadgets, combien de temps faudrat-il à 100 machines pour faire 100 gadgets ? ____ minutes

3) Dans un lac, il y a une plaque de nénuphars. Chaque jour, le champ double de taille. S'il faut 48 jours pour que la plaque couvre tout le lac, combien de temps faudra-t-il pour que la plaque couvre la moitié du lac ? ____ jours

Ce qui rend ces questions par ailleurs simples si délicates, c'est qu'elles sont conçues pour attirer l'intuition humaine vers des mauvaises réponses spécifiques. Sur les 3 428 personnes interrogées par Frederick dans le cadre de son étude, 33 % ont raté les trois questions et 83 % ont raté au moins une des questions. Parmi les diverses universités auprès desquelles Frederick a recueilli des données, c'est au MIT que le pourcentage d'étudiants ayant répondu correctement à toutes les questions était le plus élevé - seulement 48 pour cent.

Frederick précise que les répondants ont donné les réponses intuitives, incorrectes, suivantes : 1) 10 cents*, 2) 100 minutes et 3) 24 jours. La bonne réponse à la première question est 5 cents. La bonne réponse à la deuxième question est cinq minutes. La bonne réponse au troisième problème est 47 jours.

Frederick partage souvent ce test lors de conférences pour des entreprises intéressées par sa recherche - et la plupart des gens donnent encore des réponses intuitives, mais erronées. "Votre intuition n'est pas aussi bonne que vous le pensez," dit-il. "Je pense que le test ébranle la confiance, et que cela seul peut les amener à passer plus de temps et à voir les choses sous un angle nouveau."

Les avantages de la lenteur de la pensée ne sont pas universellement acceptés. Dans son livre de 2005, Malcolm Gladwell, auteur de Blink, affirme que les meilleurs décideurs ne sont pas ceux qui traitent le plus, mais ceux qui prennent les décisions rapidement.

Frederick rétorque que la lenteur de la pensée est encore utile dans les situations d'urgence et qu'elle sera toujours plus importante que la vitesse, en ce sens qu'elle permet de vérifier constamment notre intuition faillible. "Stop, drop, and roll", ("Arrête, lâche et bouge.") par exemple, est enseigné aux enfants dès leur plus jeune âge pour les former à la sécurité incendie, mais ces étapes spécifiques ne sont pas nécessairement intuitives. La RCR n'est pas non plus vraiment intuitive et exige du raisonnement.

Dan Kahan, un professeur de droit de Yale qui étudie également la cognition, suggère que Gladwell et ses partisans lents pourraient avoir raison. Il croit que la rapidité et la lenteur sont également bénéfiques et imparfaites, les qualifiant de "non pas discrètes et hiérarchiques, mais réciproques et intégrées".

Mais Kahan n'est pas d'accord avec Frederick sur la question de savoir si les préjugés peuvent être complètement éliminés par le slow thinking - ou par toute autre méthode. "Nos préjugés ne sont presque jamais ouverts à l'observation, a dit M. Kahan. "Vous pouvez être patient mais toujours partial."

Kahan va jusqu'à affirmer que, dans certains cas, penser plus longtemps et plus intensément ne peut que servir à renforcer ses préjugés. Le danger, c'est quand les gens ne peuvent pas identifier ce qui est le produit de la lenteur de la pensée et ce qui est le produit de la rapidité. Comme l'a dit Kahan, "Les gens ne manquent jamais de preuves de leur côté."

Néanmoins, le slow thinking se répand lentement. Dan Lovallo, professeur à l'Université de Sydney et chercheur principal à l'Université de Californie à Berkeley, a récemment utilisé ses propres recherches pour démontrer dans un rapport McKinsey Quarterly que les chefs d'entreprise et les investisseurs auront plus de succès s'ils réfléchissent lentement et stratégiquement, en s'en remettant aux analyses et aux modèles commerciaux pour surmonter les biais humains qui sont " bien ficelés et qui ne répondent pas à leurs besoins ". Les préjugés utilisent le "raisonnement associatif plutôt que le raisonnement logique", a déclaré M. Lovallo dans un courriel. "La meilleure façon de surmonter les préjugés est de former une catégorie de référence pour des situations similaires. Cela change la discussion et peut être utilisé pour prévoir."

La pensée lente s'est également infiltrée dans les programmes de MBA militaires, qui utilisent le Cognitive Reflection Test de Frederick dans leur programme d'études. Une revue de la Central Intelligence Agency sur le site Web de l'organisation qualifie le livre de Kahneman de "must read" pour les agents de renseignement.

Pour l'instant, les élèves du Bronzeville Scholastic de Chicago apprennent à appliquer la pensée lente à des scénarios plus immédiats et moins complexes, comme ne pas se battre. Au défi de fin d'année, les élèves devaient se rappeler leur formation sur "'énergie guerrière et l'énergie sauvage", explique le conseiller Adeeb Odeh, la première étant l'énergie sage et contrôlée d'un penseur lent, la seconde étant l'énergie automatique et réactive d'un penseur rapide.

Odeh a vu cette idée transformer le comportement de ses élèves au cours de l'année scolaire : J'ai vu des élèves du programme dans le couloir qui éloignaient leurs camarades du début d'une bagarre, leur répétant et leur rappelant simplement : "Energie guerrière, énergie guerrière". ('Warrior energy, warrior energy.)

Auteur: Kadioglu Tara

Info: Boston Globe, 26 juillet 2015, *(Si la balle coûte 10 cents et que le bâton coûte 1,00 $ de plus que la balle, alors le bâton coûtera 1,10 $ pour un grand total de 1,20 $. La bonne réponse à ce problème est que la balle coûte 5 cents et la batte coûte - à un dollar de plus - 1,05 $ pour un grand total de 1,10 $.)

[ réfléchir avant d'agir ]

 
Commentaires: 5
Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

La conscience du Dauphin
Bien entendu, les modèles du monde ne manqueront pas de différer selon le degré où les systèmes sensoriels périphériques diffèrent.
Le travail du cerveau est en effet, au moins en partie, de construire une réalité cohérente à partir de données sensorielles spécifiques, réalité qui constitue d’ailleurs la seule connue par celui qui l’expérimente au détriment de toutes les autres.
Dans le cas du dauphin, le système nerveux est celui d’un herbivore retourné à la mer, il y a quelques millions d’années, et ne diffère donc pas fondamentalement de celui de n’importe quel autre grand mammifère.
Le monde physique en revanche, au sein duquel il évolue, nous poserait à nous, humains, d’impossibles défis. C’est pourquoi les cétacés ont développé tout à la fois des formes physiques mieux adaptées au milieu marin mais surtout tout un outillage sensoriel susceptible des les aider à survivre dans un monde humide, froid et obscur, où règnent de fortes pressions.
Faire l’expérience d’une telle subjectivité est par définition une tâche impossible. Même entre époux, entre amis, entre enfants et parents, cette connaissance ne peut s’acquérir que par le biais maladroit du discours mais jamais nous ne pourrons accéder au "goût du monde" d’une autre espèce que la nôtre.
Il se fait heureusement que nos organes sensoriels et nos structures cérébrales sont des outils communs à tous les êtres humains, ce qui nous permet de fonder l’illusion d’un univers de formes stables et tangibles, dont l’existence fait l’unanimité mais que nous sommes les seuls à percevoir comme telles.
En revanche, nous sommes génétiquement incapables de nous figurer un monde filtré par d’autres sens que les nôtres, de la même manière qu’il nous est impossible de visualiser un cube en quatre dimensions ou simplement le monde des abeilles….
"Pouvez-vous imaginer l’expérience que représente le fait d’être sans cesse corrélé à une boussole solaire ?" nous demande le neurologue H.Jerison à ce propos "L’information consiste en la triangulation des objets externes relativement à un observateur (le je) et au soleil comme point de référence. Si cette réaction devait être représentée en terme de perception, on pourrait dire que l’abeille ou la fourmi ressent de manière constante l’existence des points cardinaux au sein d’un monde tridimensionnel de type euclidien. Si notre système sensoriel était celui des hyménoptères, c’est cela la seule réalité que nous pourrions percevoir.
L’intégration de deux points de référence, le soi et le soleil, plutôt qu’un seul soi unitaire en tant qu’origine et centre d’un monde périphérique, doit certainement mener à d’autres perspectives sur les dimensions fondamentales de la réalité. Il est intéressant d’imaginer les catégories additionnelles que Kant aurait pu reconnaître en tant qu’à priori si nous avions été équipés d’un tel système de navigation!"
Les expériences de Louis Herman nous apprennent que les dauphins partagent tout de même les mêmes dimensions que nous : le haut, le bas, la gauche la droite, devant, derrière, tout cela existe chez eux mais il semble qu’ils ignorent la nuance entre les adjectifs "grand" et "petit" et qu’ils construisent leurs phrases selon un mode syntaxique particulier. Ces expériences, profondément anthropocentristes, n’offrent qu’un pâle reflet d’un monde mental autrement plus riche et foisonnant en liberté, comme le montre avec bien plus d’éclat le très étrange langage delphinien mis à jour par le chercheur russe Vladimir Markov, mais elles sont à tout le moins significatives de la nature d’une conscience "autre" qui ne s’appuie pas sur nos paramètres.
Les sens et l’Umwelt
Imaginons un instant ce que pourrait être "l’Umwelt" d’un dauphin.
Au centre d’un réseau d’informations sensorielles qu’il ré-organise sans cesse en tant qu’images du monde, pulse un noyau de conscience conscient de lui-même.
La vision
Le monde visuel du dauphin peut être comparé à celui des espèces-proies, non prédatrices, comme le lapin ou le chevreuil, en ce sens que les champs visuels de ses yeux latéraux couvrent ensemble 360° mais qu’ils ne se chevauchent pas ou très peu.
L’absence de fibres non-croisées dans le chiasma optique suggère une plus large indépendance dans le contrôle des yeux et dans l’usage de l’information qu’ils fournissent, par rapport à ce que l’on observe chez les autres mammifères. Chacun des yeux est capable de mouvements propres, indépendants de ceux de l’autre œil et une certaine focalisation frontale peut donc être obtenue.
On peine cependant à imaginer un monde dans lequel le Soi se trouve ainsi de manière constante au centre d’un champ visuel circulaire de 360°.
Le nôtre, comme on le sait, se réduit à un cône de 120°.
Notre Soi se place juste derrière le front et les yeux, en vis-à-vis de l’objet focalisé par notre regard binoculaire et dans la ligne de fuite du cône, c’est-à-dire à peu près sur la glande pinéale. On comprend mieux dès lors la fausse intuition de René Descartes.
Incapables de distinguer le vert du rouge, les yeux des dauphins n’en sont pas moins d’une sensibilité extrême à l’instar des yeux de chat, percent l’obscurité et peuvent, d’une simple torsion de la rétine, adapter leur vision aux fonds marins ou à l’air libre. Par contre, le sens du relief leur est impossible, puisqu’ils ne sont pas binoculaires.
La "quasi-olfaction"
Le goût et l’odorat sont absents en tant que tels, remplacés par la "quasi-olfaction" qui consiste à filtrer une certaine quantité d’eau au travers de l’évent et à en goûter le parfum. Un tel sens est fondamental : le dauphin s’en sert pour repérer les femelles en rut autant que pour sentir les fèces de son groupe, nuage diffus de couleur foncée expulsé de manière régulière et qui donne à l’ensemble social une "odeur" propre.
Le toucher et le sens proprioceptif
Quiconque a jamais caressé la peau satinée d’un tursiops sait à quel point ce tissu est sensible, doux et fragile. Le sens du toucher joue lui aussi un rôle essentiel dans la vie de ces mammifères nus, qui n’aiment rien tant que de rester collés les uns contre les autres et d’échanger les caresses les plus voluptueuses.
Au niveau plus profond du sens proprioceptif, la différence avec nos perceptions s’accroît cependant encore davantage : "L’Umwelt des dauphins se fonde comme tout autre sur les caractéristiques de leur environnement" déclare Jerison, "et cet univers mental représente très certainement une adaptation cognitive optimale aux exigences environnementales du monde aquatique. A cet égard, l’un des traits principaux de cet univers marin – considéré depuis notre point de vue – est notamment l’absence d’une plate-forme stable tel que les mammifères l’éprouvent en se tenant sur la terre ferme".
Ce point est important, car le sol sur lequel nous nous tenons, le rôle essentiel de la gravité dans les adaptations anatomiques de la plupart des mammifères occupe une place centrale au plan biologique mais ne sont que rarement notées au niveau de la conscience vigile. Notre intuition s’épuise en revanche lorsque nous tentons d’imaginer les adaptations perceptuelles chez certaines espèces dont les données sensorielles sont profondément différentes des nôtres, et cela d’autant plus que nous ne sommes même pas conscients de notre propre spécificité sensorielle. Les informations relatives aux forces gravitationnelles qui s’exercent sur nos corps jouent également un rôle-clé chez le dauphin, mais d’une autre manière.
Celui-ci s’oriente en effet en "s’informant" régulièrement de la position de son corps par rapport aux fonds marins, à la surface de l’eau ou à la place du soleil au moment de l’observation.
Bien que les dauphins ne disposent d’aucun sol référentiel en guise de plate-forme fixe, mais qu’ils possèdent en revanche un degré de liberté dans les trois dimensions plus important que le nôtre, le sens de l’orientation spatiale est certainement fondamental pour eux. On peut imaginer ce que les cétacés ressentent en pensant à ces appareils d’entraînement destinés aux astronautes afin de les préparer à l’apesanteur.
Ces instruments sont de gigantesques balançoires, disposant de six degrés de liberté et permettant aux candidats pour l’espace de contrôler au mieux les diverses rotations possibles de leur axe corporel aussi bien que les mouvements de propulsion linéaire.
Si nous étions dauphins, nous nous trouverions dans un monde un peu semblable à celui d’un vol spatial à gravité zéro. Il est intéressant de noter à ce propos que l’expérience de l’apesanteur a crée chez les astronautes divers problèmes liés à cet environnement, telles que nausées, vertiges, migraines, etc. mais qu’elles n’ont cependant jamais altéré leur perception "juste" des choses.
Rappelons aussi, sans nous y étendre, à quel point la gestuelle constitue un mode de communication privilégié chez les dauphins : les degrés de liberté dont leur corps dispose leur a permis d’élaborer un véritable vocabulaire d’attitudes : ventre en l’air, en oblique, corps groupés par faisceaux, rostre au sol, caudale haute, inclinée, etc., le tout agrémenté ou non d’émissions de bulles et de vocalisations.
L’audition
Mais de tous les sens dont dispose le dauphin, c’est certainement l’audition qui est le plus développé et qui atteint des capacités discriminatoires sans aucun équivalent connu. Ce système sensoriel s’est transformé au cours des millénaires en écholocation, tout à la fois outil de connaissance (le monde externe "vu" par le son) et moyen de communication (le monde interne transmis par le langage). Cette convergence fonctionnelle ne manque pas d’entraîner des conséquences étonnantes !
D’après Harry J. Jerison : "Si le spectre auditif des dauphins est plus large que le nôtre de plusieurs octaves dans les fréquences les plus élevées, la caractéristique principale de ce système auditif est bien évidemment l’écholocation. Celle-ci pourrait contribuer à conférer au monde des dauphins une dimension inhabituelle, dépassant largement les perceptions élémentaires relatives aux événements survenant à distance. En tant qu’adaptation sensori-motrice, l’écholocation partage en effet certaines caractéristiques similaires à celles du langage humain".
Rappelons brièvement en quoi consiste cette vision acoustique d’un type inusité. Le dauphin émet en permanence – dès lors qu’il se déplace et cherche sa route activement – une série de "sons explosés" extrêmement brefs (moins d’une seconde d’émission continue). Ces "clicks" ne sont pas des sons purs mais des "bruits", d’inextricables petits paquets d’ondes situés sur des fréquences de 120 à 130 Khz et d’une puissance frisant parfois les 220 décibels. Ils retentissent sous l’eau comme une grêle de minuscules coups secs et nets enchaînés l’un à l’autre en de courtes séquences.
Les clicks sont émis sous forme d’un large faisceau, qui balaie par intermittence le sol sablonneux à la façon d’un projecteur. On peut donc dire que la nuit ou sous une certaine profondeur, le dauphin ne voit que lorsqu’il éclaire le paysage de ses éclairs sonores. Les informations reçues, assez grossières, concernent l’aspect du fond marin ou une masse importante, bateau ou autre cétacé.
Supposons à présent qu’un poisson soit repéré dans ce champ de vision "stroboscopique". Puisqu’il fait nuit, l’œil ne peut confirmer l’image en mode visuel.
Lorsque la chasse commence, le dauphin resserre alors le rayon de son biosonar et le dédouble en deux faisceaux.
Plus précis, mieux ciblés les trains de click bombardent le poisson sous tous ses angles et peuvent même pénétrer dans son corps en renvoyant l’image de ses organes internes.
Les deux trains de clicks sont produits presque simultanément, l’un à 20° à gauche de la ligne du rostre et l’autre à 20° sur la droite. Les deux rayons se chevauchent au point focal (0°) et fournissent une "visiaudition" de type, cette fois, binoculaire.
Un intervalle de 80 millièmes de seconde sépare l’émission de chacun des faisceaux, de sorte qu’en calculant le léger retard d’un écho par rapport à l’autre, le dauphin peut estimer la profondeur de champ et la distance qui le sépare de chaque élément de l’objet observé.
Se rapprochant de sa proie à toute vitesse, le dauphin n’a de cesse que de conserver le contact avec elle et multiplie la fréquence et l’intensité de ses trains de clicks, comme pour maintenir le "projecteur" allumé presque en continu.
Les ondes à haute fréquence ont une portée plus courte mais fournissent en revanche une bien meilleure définition des détails. En nageant, le dauphin opère un mouvement de balayage avec la tête avant d’obtenir une image complète de sa cible, que ses organes visuels conforteront par ailleurs.
S’il veut obtenir davantage de détails encore sur son contenu, le dauphin la bombardera alors sa cible à bout portant, d’un faisceau de clicks aussi fin et précis qu’un rayon laser.
Celui-ci pénètre la matière et en estime la densité avec une incroyable précision : la nature d’un métal (zinc plutôt que cuivre) ou des variations de l’épaisseur d’un tube de l’ordre d’un millième de millimètres sont alors parfaitement perçus par cette échographie biologique.
Une telle "vision acoustique" nous sera à tout jamais inimaginable, comme la couleur rouge l’est pour l’aveugle. Néanmoins, au prix d’une comparaison grossière, on peut mettre en parallèle la pluie d’échos que perçoivent les cétacés avec les pixels que l’œil humain perçoit sur un écran de télévision. Les pixels dessinent très rapidement une image en se succédant l’un à l’autre et laissent sur la rétine du téléspectateur une série de rémanences qui figurent le mouvement et les formes. Une scène visuelle est ainsi décodée à partir d’une séquence de taches ultra rapides surgissant sur l’écran. De la même manière, une expérience éidétique similaire est sans doute générée par les données discrètes de l’écholocation (clicks).
L’information pourrait être alors parfaitement comparable à celle que l’on obtient grâce au bombardement de photons dans le système visuel, à ceci près qu’elle parviendrait par un autre canal, en l’occurrence le canal auditif.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0