Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 8
Temps de recherche: 0.0388s

pédagogie holistique

Le journal d’hier matin m’a fait chaud au coeur. La journaliste culturelle suédoise Ulrika Knutson y donnait une longue interview sous le titre "L’éducation peut se passer de livres". Elle y rappelait la coexistence, au début du XXe siècle, de l’éducation pratique et de l’éducation livresque. La méthode n’était pas réservée aux plus aisés, elle a même permis à la classe dite "inférieure" de développer ses compétences pratiques et esthétiques. Ce sont les mêmes compétences que beaucoup souhaiteraient aujourd’hui supprimer des programmes scolaires. Je suis convaincue que l’éducation devrait être plus rationnelle, plus rapide, et mieux prendre en compte les besoins du marché. Ulrika Knutson formule ainsi sa défense d’une éducation non livresque : "Nous ne sommes pas tous des lecteurs, mais nous pouvons tous nous former. On rencontre d’autres personnes, on écoute, on vit. Pour cette raison, je suis fascinée par ceux qui, au début du siècle dernier, ont mis l’accent sur le pouvoir du cerveau, du coeur et de la main."

Tout est dit. C’est ainsi ce que je voudrais répliquer aux sociologues qui nous parlaient des analphabètes, de ceux qui ignorent les théorèmes, les noms des plantes ou des animaux. Bien sûr, on peut apprendre toutes sortes de choses dans les livres, et c’est tant mieux. Mais la vie à laquelle j’aspire, c’est une union du cerveau, du coeur et de la main. C’est pour eux que je fais des recherches sur les neurosciences et que je me passionne pour tout et n’importe quoi. Pour eux que je vis intensément, entourée de nombreux amis. Pour eux que je tricote, nettoie, brode. Le cerveau, le coeur et la main.

 




Auteur: Antas Maria

Info: Faut que ça brille !

[ enseignement pratique ] [ apprentissage intégré ] [ intelligence multidimensionnelle ] [ travail manuel ] [ langage surévalué ] [ verbe surestimé ] [ transdisciplinarité ]

 

Commentaires: 0

Ajouté à la BD par miguel

mutation

L'évolution ne nous a pas préparé à ça: notre cerveau impacté par la lecture sur écran 

Une équipe de chercheurs de l'Université Macquarie, incluant le Professeur Erik Reichle et Dr Lili Yu, s'est penchée sur l'impact de la lecture sur écran par rapport à la lecture traditionnelle sur papier. Leurs découvertes offrent un nouvel éclairage sur les défis auxquels nos cerveaux doivent faire face dans le monde moderne et sur la manière dont la technologie modifie notre capacité d'absorption et de rétention des informations.

La lecture, bien qu'intégrée tardivement dans l'histoire de l'évolution humaine, nécessite une série de processus mentaux complexes. Le développement du langage, initialement oral, n'a pas préparé notre cerveau à la lecture, une compétence qui demande des années de pratique pour être maîtrisée. Dans ce contexte, la transition vers la lecture numérique impose des défis supplémentaires. 

Des études indiquent que lire sur écran réduit notre capacité à comprendre et à mémoriser le texte comparé à la lecture sur papier, un phénomène désigné sous le nom d'effet d'infériorité de l'écran.

Cette baisse de compréhension serait influencée par divers facteurs, tels que le type de texte lu, le temps disponible pour la lecture, et les compétences en lecture du lecteur. De plus, la lecture sur écran s'accompagne souvent de distractions intégrées, telles que les notifications ou les publicités animées, qui sollicitent notre attention et réduisent notre capacité à nous concentrer sur le texte. 

Pour contrer les effets de la lecture numérique et améliorer notre concentration, les chercheurs recommandent de revenir progressivement à la lecture sur papier. Cette pratique nécessite de choisir un livre intéressant, de se placer dans un environnement propice à la lecture, et de minimiser les distractions. Reconstruire notre capacité de concentration sur les textes imprimés est un processus graduel, mais essentiel pour notre développement intellectuel.

La compréhension profonde de ces phénomènes est cruciale, non seulement pour les adultes actuels mais aussi pour les générations futures qui grandissent avec les écrans. Les implications pour l'apprentissage, tant en ligne qu'en classe, sont importantes, surtout pour les lecteurs moins aguerris qui sont les plus affectés par l'effet d'infériorité de l'écran. À mesure que nous avançons dans l'ère numérique, comprendre et s'adapter à ces changements devient essentiel pour préserver notre capacité à apprendre et à nous concentrer efficacement.

Auteur: Internet

Info: https://www.techno-science.net/ - Redbran le 16/02/2024, Source: Trends in Cognitive Sciences

[ adaptation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

lecture

Internet, l'iPhone, Facebook, les jeux virtuels, ont en quelques années révolutionné notre quotidien. Mieux encore, ils modifient la mémoire et la plasticité du cerveau de nos adolescents. Pour certains experts, nous vivons une révolution digne de Gutemberg et de la découverte de l'imprimerie.
La Student Academy, à Bruxelles, est une magnifique maison de maître nichée à deux pas de l'ULB. Ici, avant d'entrer, les étudiants déposent leurs smartphones. Aujourd'hui, une vingtaine d'étudiants, tous issus du secondaire, viennent suivre un cours de techniques de concentration. Ils apprennent à mémoriser durablement les matières qu'ils étudient. Au préalable, leur coach les soumet à un petit exercice. Pendant neuf minutes, ils doivent retenir un texte par coeur. David a beaucoup de mal. Le moindre mouvement dans la salle le distrait et la présence de la caméra de la RTBF n'arrange pas les choses. Mais surtout, David a sa mémoire saturée d'informations qu'il puise sur internet. Il l'avoue lui-même : il passe toutes ses journées sur son ordinateur et se sent ensuite incapable de se concentrer sur ses cours.
Pour Lola Van Lierde, coach à la Student Academy, David n'est pas une exception. Soumis à des tests de concentration, la plupart des étudiants qui jonglent avec internet, Facebook et les réseaux sociaux, sont devenus "multitâches", mais sont aussi plus facilement distraits. A la Student Academy, ils apprennent à renforcer leur mémoire. Mais dès la pause de midi, l'Iphone reprend ses droits. Eloi discute athlétisme avec son copain pour connaître le chrono de Hussein Bolt au championnat du monde. Il consulte internet et obtient la réponse en un clic.
Révolution de Gutenberg
L'Iphone et internet sont une vraie révolution digne de la découverte de l'imprimerie par Gutemberg.
Commentaire :
Par contre, l'imprimerie ne nous à pas enlevé notre capacité à la concentration ni à la mémoire à long terme. S'il y a, c'est tout le contraire.
Aujourd'hui, plus besoin de mémoriser des chiffres, des adresses ou des numéros de téléphone, nous avons toutes ces infos. Résultat, plutôt que de mémoriser du contenu, notre cerveau a plutôt tendance à mémoriser comment y accéder. La génération 'Google' a tellement intégré cette nouvelle forme d'apprentissage que son cerveau s'est transformé. Valérie Cornil, neuropsychiatre aux Cliniques de l'Europe à Bruxelles, observe que l'hippocampe, siège de consolidation de l'information, est moins développé chez nos ados. Tandis que les lobes frontaux, sièges du traitement de l'information multiple, la synthèse, ont tendance à se renforcer.
En d'autres termes, leur cerveau s'adapte. Les ados développent le sens de la synthèse.
Commentaire :
Quoiqu'intéressant, paradoxal : comment développer le sens de la synthèse si nous perdons le sens de la consolidation de l'information?
Nous sommes loin du temps où un professeur était dépositaire d'un savoir universel. Aujourd'hui, les sources d'information se bousculent, à nous de faire le tri. A moins d'accepter de s'offrir plus de plages de concentrations coupées d'internet.

Auteur: RTBF

Info: Internet et les téléphones "intelligents" modifient le cerveau d'une génération.

[ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

humain miroir

La perception humaine de l'espace s'étend tout comme l'univers réel !

Le cerveau humain a une façon intéressante d'évaluer la proximité ou la distance d'un objet dans l'espace. Si vous regardez la nuit depuis votre voiture, il y a de fortes chances que la Lune vous paraisse se déplacer à vos côtés. Une nouvelle étude neuroscientifique a permis de découvrir pourquoi la zone de la mémoire de notre cerveau perçoit les images proches et lointaines et comment ces exagérations peuvent créer davantage de connexions cérébrales à mesure que nous vieillissons.

L'hippocampe est une zone du cerveau impliquée dans l'apprentissage et la mémoire. Dans l'étude actuelle, les auteurs ont constaté que les neurones associés à la planification, à la mémoire et à la navigation spatiale transforment l'espace en une forme géométrique hyperbolique non linéaire - pensez à un sablier en expansion qui grossit à mesure que vous vous en éloignez. Pour en revenir à l'exemple de la lune, les jeunes enfants ont pu constater que la lune les suivait ou qu'elle était suffisamment proche pour qu'ils l'attrapent.

Bien sûr, la Lune ne se déplace pas et sa taille est déformée par sa distance. Les résultats ont montré que la taille de l'image augmente avec le temps passé dans un lieu. La taille perçue par notre cerveau est également directement liée à la quantité d'informations qu'il peut traiter : les jeunes cerveaux sont peut-être plus enclins à naviguer et à percevoir l'espace de manière linéaire. Avec de nouvelles expériences, l'hippocampe est capable d'affiner ses connexions neuronales et de traiter davantage d'informations sur l'image.

Le cerveau "s'élargit" avec l'expérience

Comprendre comment les réseaux neuronaux du cerveau traitent la navigation spatiale pourrait aider à étudier les troubles neurocognitifs. La maladie d'Alzheimer, par exemple, est une maladie dans laquelle l'hippocampe est l'une des premières zones du cerveau à être détruite, ce qui affecte la mémoire de la personne.

"Notre étude démontre que le cerveau n'agit pas toujours de manière linéaire. Au contraire, les réseaux neuronaux fonctionnent le long d'une courbe en expansion, qui peut être analysée et comprise à l'aide de la géométrie hyperbolique et de la théorie de l'information", explique l'auteur principal, Tatyana Sharpee, professeur à l'Institut Salk et titulaire de la chaire Edwin K. Hunter, dans un communiqué de presse. "Il est passionnant de constater que les réponses neuronales dans cette région du cerveau forment une carte qui s'élargit avec l'expérience, en fonction du temps passé dans un lieu donné. L'effet s'est même maintenu pour des écarts de temps minuscules, lorsque l'animal courait plus lentement ou plus rapidement dans l'environnement."

L'équipe de recherche a utilisé des méthodes informatiques avancées pour comprendre le fonctionnement du cerveau. L'une de ces techniques consiste à utiliser la géométrie hyperbolique pour disséquer les signaux biologiques. Des travaux antérieurs ont utilisé la géométrie hyperbolique pour étudier le fonctionnement des molécules odorantes et de la perception des odeurs.

La géométrie hyperbolique s'est avérée efficace pour comprendre les réponses neuronales et pour cartographier les molécules et les événements sensoriels. Les chercheurs ont recueilli leurs informations auprès de rats qui ont passé du temps à explorer un nouvel environnement. Plus le rat passe de temps dans une zone, plus il acquiert d'informations sur l'espace qui l'entoure. Cela a permis à leur carte neuronale de s'étendre et de se développer.

"Ces résultats offrent une nouvelle perspective sur la manière dont les représentations neuronales peuvent être modifiées par l'expérience", explique Huanqiu Zhang, étudiant diplômé du laboratoire de M. Sharpee. "Les principes géométriques identifiés dans notre étude peuvent également guider les futurs efforts de compréhension de l'activité neuronale dans divers systèmes cérébraux.

Auteur: Internet

Info: Nature Neuroscience, repris par Jocelyn Solis-Moreira ,7 janvier 2023

[ horizon grégaire intégré ] [ vieillir grandir ]

 

Commentaires: 0

Ajouté à la BD par miguel

traitement automatique du langage

- C'est quoi un algorithme de représentation ?

- Il s'agit d'un ensemble de règles ou de procédures utilisées pour transformer des données ou des informations d'une forme vers une autre. L'objectif d'un algorithme de représentation est de convertir des données complexes ou non structurées en une représentation plus facile à gérer ou plus utile, souvent dans un format qui peut être facilement traité par une machine ou analysé par des humains.

Les algorithmes de représentation sont couramment utilisés dans divers domaines de l'informatique, notamment le traitement du langage naturel (TAL), la vision par ordinateur et l'apprentissage automatique. Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments ou la recherche d'informations. Dans le domaine de la vision artificielle, les algorithmes de représentation peuvent être utilisés pour extraire des caractéristiques d'images ou de données vidéo, qui peuvent ensuite être utilisées pour des tâches telles que la reconnaissance d'objets ou la détection de mouvements.

- Tu as écrit "Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments". Peux-tu élaborer un peu plus ?

- Bien sûr. L'analyse des sentiments, également connue sous le nom d'exploration d'opinion (opinion mining), est une application courante du traitement du langage naturel qui consiste à analyser un texte pour déterminer l'attitude ou les sentiments de l'auteur à l'égard d'un sujet particulier. Dans l'analyse des sentiments, un algorithme de représentation est utilisé pour transformer les données textuelles en un format numérique qui peut être facilement traité par un algorithme d'apprentissage automatique.

Une approche courante de l'analyse des sentiments consiste à utiliser un panier-modèle-de-mots, qui représente un document sous forme d'une collection de termes individuels, sans tenir compte de leur ordre d'apparition. Chaque item se voit attribuer un poids correspondant à son importance dans le document, généralement en fonction de sa fréquence d'apparition et de sa pertinence par rapport à la tâche à accomplir. La représentation numérique du document qui en résulte peut ensuite être utilisée comme entrée d'un modèle d'apprentissage automatique, tel qu'un classificateur, qui est entraîné à prédire le contenu- ressenti-sentiment-caractère de nouveaux documents inédits.

Prenons l'exemple de la phrase suivante : "J'aime le film "La rédemption de Shawshank"". Un algorithme de représentation par panier-modèle-de-mots pourrait représenter cette phrase sous la forme d'un vecteur de nombres, où chaque élément correspond à un mot particulier de la phrase, et la valeur de chaque élément indique la pertinence ou l'importance de ce mot pour le sentiment de la phrase. Dans ce cas, le vecteur pourrait ressembler à ceci : 

[0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

Ici, le deuxième élément a une valeur de 1 parce que le mot "amour" est très pertinent pour le sentiment de la phrase. Les autres éléments ont tous une valeur de 0 car les autres mots de la phrase ne sont pas particulièrement pertinents pour le feeling de la phrase.

Une fois que la représentation numérique du document est générée, elle peut être intégrée à un algorithme d'apprentissage automatique spécialement formé sur un ensemble de documents dont les étiquettes de sentiment sont connues  (par exemple, positives, négatives ou neutres). L'algorithme d'apprentissage automatique peut alors apprendre à associer certains modèles numériques dans les données d'entrée avec  des étiquettes de sentiment particulières, et utiliser cette connaissance pour prédire le sentiment de nouveaux documents non vus.

Auteur: chatGPT4

Info: 3 mai 2023

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Les effets de la musique sur le cerveau et la santé
On dit que la musique élève l'âme, mais elle élève aussi... le cerveau ! En effet, une étude récente réalisée par des chercheurs membres du Centre de recherche sur le cerveau, le langage et la musique (CRBLM) rapporte que l'apprentissage de la musique avant l'âge de sept ans influence positivement le développement du cerveau. Plus précisément, la formation musicale pendant l'enfance favorise des connexions plus fortes entre les régions sensorielles et motrices de notre matière grise, l'aidant ainsi à mieux orchestrer la planification et l'exécution de nos mouvements.
Plus encore, des données indiquent que les enfants qui suivent des leçons de musique réussissent mieux certains types de tests, particulièrement ceux de lecture et de concentration. D'autres recherches démontrent qu'une formation musicale développe les capacités auditives, notamment dans un contexte bruyant. Pareillement, l'apprentissage de plusieurs langues pendant l'enfance procure des avantages cognitifs qui peuvent ralentir la sénescence.
Le CRBLM a été créé en 2011, il réunit les forces vives de la recherche sur l'organisation, le fonctionnement et le dysfonctionnement des systèmes nerveux musical et linguistique. Etabli à l'Université McGill et financé par le FRQNT, ce regroupement stratégique rassemble des ingénieurs, des neuroscientifiques, des linguistes, des experts en vieillissement et des psychologues provenant aussi de diverses universités - Université de Montréal, Université Concordia, Université Laval, Université du Québec à Montréal - et de l'INRS.
Par exemple, l'axe de recherche sur les neurosciences se penche sur la capacité d'apprentissage de plusieurs langues. Il tente aussi de mieux comprendre comment nos méninges interagissent avec la musique pour, à long terme, mieux cerner et peut-être traiter des problèmes de langage. Car langage et musique partagent certaines zones du cerveau. C'est ce qui explique que, souvent, un accident cérébral perturbe nos facultés musicales et verbales. Par contre, musique et paroles utilisent également des circuits neuronaux séparés et peuvent donc être perturbés isolément. Les chercheurs ont constaté que beaucoup de patients atteints d'Alzheimer semblent conserver la capacité de reconnaître la musique alors qu'ils n'identifient plus les membres de leur famille et que leur discours est embrouillé.
Une grande partie des travaux sur la musique se fait dans le Laboratoire international de recherche sur le cerveau, la musique et le son (BRAMS), situé à l'Université de Montréal. Cette importante infrastructure est intégrée au CRBLM et dispose notamment de dix salles de test insonorisées à la fine pointe de la technologie et d'un système vidéo 3D d'enregistrement de mouvements.
La compréhension des effets du langage et de la musique sur le cerveau représente tout un défi. En effet, il n'y aurait pas de centre musical et langagier unique dans le cerveau. Comme pour la compréhension du langage, la musique est traitée par différents chefs d'orchestre. Ainsi, chez un musicien, une partie de la matière grise se concentre sur le mouvement des mains, tandis qu'une autre partie s'efforce de déchiffrer les notes de la partition. Par des techniques de neuro-imagerie fonctionnelle, les scientifiques enregistrent les réponses du cerveau et les mouvements de l'interprète à l'aide d'un système de senseurs. Ils combinent ensuite ces données dans des modèles théoriques neurophysiologiques et mathématiques pour comprendre comment le système nerveux permet à une personne de produire de la musique rapidement et facilement. Des chercheurs comme les codirecteurs du BRAMS - Isabelle Peretz, professeure au Département de psychologie de l'Université de Montréal, et Robert Zatorre, professeur à l'Institut neurologique de Montréal (MNI) - ont ainsi établi que certains réseaux neuronaux sont tout de même exclusivement dédiés au traitement de la musique.
Selon certaines études, compte tenu du fait que la musique et la zone de commande du mouvement partagent des circuits neuronaux, l'art musical peut aider les patients atteints de Parkinson ou ceux qui ont subi un accident vasculaire cérébral à améliorer - ou à retrouver - la mobilité. Les personnes qui ont des problèmes de cognition ou de langage profiteraient également des bienfaits d'une mélodie. Les prescriptions pour une thérapie musicale, c'est pour bientôt...

Auteur: Internet

Info: http://www.bulletins-electroniques.com/actualites/73014.htm

[ thérapie ]

 

Commentaires: 0

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel