Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 43
Temps de recherche: 0.0498s

intelligence artificielle

Notre article "Precision Machine Learning" montre que les réseaux neuronaux surpassent l'interpolation simplex uniquement dans plus de 2 dimensions, en exploitant la modularité. Nous développons des astuces de formation pour un ML de haute précision, utiles pour la science et l'interprétabilité.

Résumé : Nous explorons les considérations particulières impliquées dans l'ajustement des modèles ML aux données demandant une très grande précision, comme c'est souvent le cas pour les applications scientifiques. Nous comparons empiriquement diverses méthodes d'approximation de fonctions et étudions leur évolution en fonction de l'augmentation des paramètres et des données. Nous constatons que les réseaux neuronaux peuvent souvent surpasser les méthodes d'approximation classiques pour les exemples à dimensions élevées, en découvrant et en exploitant automatiquement les structures modulaires qu'ils contiennent. Cependant, les réseaux neuronaux dressés-formés avec des optimiseurs courants sont moins puissants pour les cas à basse dimension, ce qui nous motive à étudier les propriétés uniques des zones de déperdition des réseaux neuronaux et les défis d'optimisation qui se présentent et correspondent dans le régime de haute précision. Pour résoudre le problème de l'optimisation en basse dimension, nous développons des astuces d'entraînement-formation qui nous permettent de faire fonctionner les réseaux neuronaux avec une déperdition extrêmement faibles, proche des limites permises par la précision numérique.

Auteur: Tegmark Max

Info: Écrit avec Eric J. Michaud et Ziming Liu, oct 2022

[ mathématiques appliquées ] [ apprentissage automatique ] [ physique computationnelle ] [ machine-homme ] [ affinements mécaniques ] [ sémantique élargie ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-par-machine

L’affirmation selon laquelle la méthode utilisée par le cerveau humain pour encoder les relations entre les concepts n’est pas uniquement mathématique est fondée sur notre compréhension actuelle des neurosciences, de la psychologie cognitive et des complexités observables du comportement et de l’expérience humaine. S’il est vrai que de nombreux processus cérébraux peuvent être décrits mathématiquement dans une certaine mesure (par exemple, dans les modèles d’activité neuronale ou de traitement des signaux), la profondeur du traitement cognitif et émotionnel humain transcende la simple description mathématique. Voici comment nous pouvons étayer ce point de vue :

Preuves de l’existence de processus non mathématiques dans la cognition humaine

Observations neuroscientifiques : L’imagerie cérébrale et les études neurophysiologiques révèlent des schémas complexes et dynamiques d’activité cérébrale associés à la cognition et aux émotions. Si ces schémas peuvent parfois être modélisés mathématiquement, les modèles ne rendent pas pleinement compte des expériences subjectives, des intentions et de la conscience qui accompagnent ces processus.

Complexité psychologique : les pensées, les émotions et les souvenirs humains sont liés entre eux d’une manière qui ne repose pas uniquement sur des relations mathématiques observables ou quantifiables. Par exemple, la signification personnelle, l’impact émotionnel et le contexte culturel peuvent tous influencer la manière dont les concepts sont liés, au-delà de ce qui peut être réduit à de simples valeurs numériques ou équations mathématiques.

Propriétés émergentes : La conscience et l’expérience subjective sont des propriétés émergentes des processus cérébraux que nous ne comprenons pas encore tout à fait. La qualité subjective de l’expérience (qualia) n’est pas quelque chose qui peut être directement mesuré ou entièrement capturé en termes mathématiques, bien qu’il s’agisse d’un produit des processus cérébraux.



 

Auteur: chatGPT4

Info: Sur le blog de Paul Jorion, mars 2024

[ partialité ] [ esprit défini ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

La différence entre la théorie platonicienne et l'hypothèse de la résonance morphologique peut être illustrée par analogie avec un téléviseur. Les images à l'écran dépendent des composants matériels du téléviseur et de l'énergie qui l'alimente, ainsi que des transmissions invisibles qu'il reçoit par le biais du champ électromagnétique. Un sceptique qui rejette l'idée d'influences invisibles pourra essayer de tout expliquer sur les images et les sons en termes de composants de l'ensemble - les fils, les transistors, etc. - et les interactions électriques entre eux. Avec des recherches approfondies, il découvrira qu'endommager ou supprimer certains des composants affecte les images ou les sons produits par l'ensemble, et ce de manière réproductible et prévisible. Cette découverte renforcera sa croyance matérialiste. Il ne sera pas en mesure d'expliquer exactement comment l'ensemble produit les images et les sons, mais il espère qu'une analyse plus détaillée des composants et des modèles mathématiques plus complexes de leurs interactions apporteront finalement la réponse. Certaines mutations des composants - par exemple, un défaut de certains des transistors - affectent les images en changeant leurs couleurs ou en déformant leurs formes ; tandis que les mutations des composants du circuit de syntonisation font basculer l'ensemble d'un canal à l'autre, ce qui entraîne un ensemble de sons et d'images complètement différent. Mais cela ne prouve pas que le journal télévisé du soir soit produit par des interactions entre les composants du téléviseur. De même, les mutations génétiques peuvent affecter la forme et le comportement d'un animal, mais cela ne prouve pas que la forme et le comportement sont programmés dans les gènes. Ils sont hérités par résonance morphologique, une influence invisible sur l'organisme venant de l'extérieur, tout comme les téléviseurs sont accordés de manière résonnante aux transmissions qui proviennent d'ailleurs.  

Auteur: Sheldrake Rupert

Info: The Science Delusion : Sentir l'esprit de recherche

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

La synesthésie à travers le mathématicien Jason Padgett

Jason Padgett est un américain qui a acquis, sans le vouloir, des capacités étonnantes en mathématiques après une agression en 2002. Il a été durement touché à la tête et il vit maintenant la réalité sous forme de fractales mathématiques descriptibles par des équations. Il est atteint du syndrome du savant qui lui permet désormais de pratiquer une forme de synesthésie.

Avant l’incident, Jason ne possédait aucune capacité particulière en math, il était même plutôt mauvais. Il a copié la plupart des réponses à son examen de géométrie dans l’enseignement secondaire et n’a jamais eu beaucoup d’intérêt pour cette matière. Il est allé à l’université pour la quitter sans finir son cycle. Il a ensuite travaillé dans la vente pendant quelques années et puis s’est installé dans un magasin de meubles fabriqués par son père. L’accident vasculaire cérébral provoqué par son agression a ostensiblement changé l’architecture du cerveau de Jason. Après une période d’introspection d’une durée de trois ans, il a commencé à dessiner ce qu’il voyait juste en face de ses yeux. Les résultats étaient incroyables, une série d’approximations mathématiques, de fractales dessinées à la main, les premières du genre. Les mathématiciens et les physiciens ont été surpris : certains des dessins de Jason dépeignent des équations mathématiques qui, jusque-là, étaient seulement présentables sous forme graphique. D’autres représentent de réels modèles d’interférences électroniques.

Il semblerait bien que notre conscience soit fractale et possède de multiples couches qui sont sous jacentes à notre conscience de veille. Lorsque nous atteignons certaines couches, d'autres facultés jusque là inhibées réapparaissent, telle est le cas de la synesthésie. La synesthésie (du grec syn, "avec" (union), et aesthesis, "sensation") est un phénomène neurologique par lequel deux ou plusieurs sens sont associés. Par conséquent, tout état de conscience modifiée peut amener à une certaine synesthésie, les rêves appartiennent à ce domaine de conscience modifiée. Nous devons donc aborder également les animaux et les végétaux, qui possèdent une certaine forme de conscience, selon ce point de vue. Lorsque nous observons une abeille par exemple, son monde est synesthésique, elle évolue dans un monde où la différenciation des sens est moins présente et semble comme enivrée par ses émotions. L'état hypnotique n'est pas étranger à cette forme de conscience synesthésique que nous pourrions appeler "conscience collective" ou "conscience plurielle", parce que l'organisme et ses divers composants psychiques se retrouvent comme condensés et plus unifiés, ce qui l'amène à vivre dans une subjectivité plus grande et dans un état de fascination hypnotique plus prégnante également. L'abeille considère donc ses congénères de la ruche comme des parties d'elle-même, et non comme extérieur à elle-même, d'où la conscience collective.

Ce que nous observons du monde extérieur à partir de notre conscience de veille n'est donc qu'une réalité, lorsque nous pénétrons dans notre intériorité, d'autres types de conscience émergent dont la conscience collective. C'est alors que nous pouvons voir des réalités qui furent jusque là cachées, la vision de l'abeille ou de Jason Padgett peuvent jaillir de la pénombre de notre inconscient.

Auteur: Shoushi Daniel

Info: 16 Feb 2018. Source : Struck by Genius : How a brain injury made me a mathematical marvel, Jason Padgett, Maureen Seaberg. Editions Headline

[ niveaux de perception ] [ grégarisme ] [ anthropismes ]

 

Commentaires: 0

Ajouté à la BD par miguel

fiasco

Echec du lancement de Galactica, IA générative scientifique de Meta

Le 15 novembre dernier, Meta a mis en ligne une version démo de Galactica, une IA développée pour la recherche scientifique. Deux jours après son lancement, elle a été retirée du Web pour avoir débité des inepties. 

Galactica est un modèle de langage à grande échelle (LLM), entraînée sur 48 millions de données scientifiques comprenant 120 milliards de paramètres. Il a pour mission de "résumer des articles universitaires, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, et bien plus encore".

Dès sa diffusion sur le Web, de nombreuses réponses aux questions posées par les utilisateurs se sont révélées confuses, absurdes ou fausses.

Par exemple, l’IA a inventé l’existence d’un logiciel Gaydar pour trouver des homosexuels sur Facebook et a proposé une étude sur les avantages de manger du verre pilé. Dans d’autres résultats de recherche, de nombreuses références et citations étaient fabriquées de toute pièce et attribuées à des vrais scientifiques.

Selon Carl Bergstrom, professeur de biologie à l’Université de Washington, il s’agit - pardonnez l’expression - "d’un générateur de conneries aléatoires".

D’après Dan Hendrycks, chercheur en sécurité de l’intelligence artificielle à l’Université de Californie à Berkeley, interrogé dans C/Net, Meta aurait dû sonder leur IA pour ce type de dérives avant de la diffuser et souligne au passage que "la division IA de Meta ne dispose pas d’une équipe chargée de la sécurité, contrairement à ses homologues, DeepMind, Anthropic et OpenAI".

C’est incompréhensible que le géant du Web ait rendu publique cette version aussi imparfaite que dangereuse. D’ailleurs chaque résultat généré était accompagné de l’avertissement: "Les résultats peuvent être peu fiables. Les modèles de langage ont tendance à inventer".

De nombreuses études le démontrent, le défaut l’IA générative - un fait connu et reconnu - est sa tendance à halluciner le matériel qu’elle présente dans le contexte d’informations factuelles.

Il faut toujours vérifier les faits énoncés par un logiciel IA de rédaction. L’utilisation de ce type d’outils demande un esprit critique, car à chaque nouveau prompt ou invite, l’IA débite un nouveau texte, parfois en contradiction avec le précédent.

L’objectif de Galactica est louable en voulant aider les scientifiques à traiter la masse pharaonique d’informations scientifiques publiées, impossible à assimiler par un cerveau humain.

Mais c’est la deuxième fois en quelques mois qu’une IA de Meta déçoit. Le robot conversationnel BlenderBot lancé en septembre, devait permettre aux utilisateurs de discuter avec lui afin d’approfondir ses connaissances, mais le niveau des échanges était tout simplement médiocre. Un timing incompréhensible, car ce lancement faisait suite à la polémique autour de LaMDA en juin, le Chatbot de Google, dont les propos étaient si sensés et profonds, qu’il avait convaincu un ingénieur d’avoir atteint le stade de la conscience.

La ferveur est grande autour de l’IA générative, elle est décrite comme le "BIG BANG de la Silicon Valley" et "l’invention qui va définir la décennie à venir".

En lançant cette version prématurée de Galactica, Meta a jeté un discrédit sur ces logiciels. Il ne faut pas en tenir compte. Une véritable révolution est en marche et tous les secteurs de l’économie seront touchés.  

Auteur: Turrettini Emily

Info: Bilan.ch, 24 nov 2022. Sources de l'auteure : C/Net / Cosmos / Venture Beat / TechTalk / The Daily Beast

[ ratage ] [ traitement des métadonnées ] [ bêtise encyclopédique ]

 

Commentaires: 0

Ajouté à la BD par miguel

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

Des poissons plus méfiants remettent en cause les méthodes de surveillance des stocks de poissons.
L'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) estime que près de 70 % des stocks halieutiques sont pleinement exploités voire surexploités. Mais ce n'est peut-être qu'un tour joué par des poissons méfiants... La surexploitation industrielle est certainement un problème, mais une étude sur la pêche de loisir conduite par des scientifiques de l'UE sur les côtes de Majorque soulève quelques doutes sur l'exactitude des outils actuels utilisés pour la surveillance des stocks halieutiques.
Le tourisme représente 80 % de l'économie de l'île de Majorque, mais ce ne sont ni les plages ensoleillées ni les beaux paysages qui ont attiré Josep Alós et Robert Arlinghaus. Depuis janvier 2014, les deux scientifiques étudient les populations de poissons de la région, grâce à de nouveaux modèles mathématiques et méthodes de suivi. Et leurs découvertes sont plutôt déconcertantes. En effet, il semblerait que plus les pêcheurs sont nombreux, moins les poissons ont tendance à mordre à l'hameçon.
Pour arriver à ce résultat, les chercheurs ont étudié le comportement de deux poissons, le Serranus scriba (le Serran ou perche de mer), un carnivore, et le Diplodus annularis (le Sparaillon), un alguivore. Les études ont concerné 54 emplacements présentant les mêmes caractéristiques d'habitat mais soumises à différentes pressions de pêche à la ligne. Pendant la pêche, une caméra vidéo sous-marine autonome enregistrait le comportement des poissons.
Si je me fais avoir une fois...
Logiquement, la perche de mer, qui ne peut réfléchir trop longtemps avant d'attaquer une proie mobile, devait être plus agressive que le sparaillon envers les appâts. Mais les faits ont rapidement remis cette hypothèse en question: les poissons étaient effectivement plus agressifs lorsque les pêcheurs étaient rares, mais ils devenaient de plus en plus prudents avec l'augmentation du nombre d'appâts. Selon l'équipe, ce comportement évolutif peut s'expliquer par une sélection génétique vers une méfiance renforcée ainsi que par l'expérience, entraînant ainsi une diminution des prises.
Ces résultats sont en contradiction avec une étude précédente des deux scientifiques, qui s'était limitée à surveiller les méthodes standard de pêche à la ligne et avait conclu que les zones marines protégées contenaient des poissons plus nombreux et plus gros que les zones très exploitées. Le comportement du sparaillon, quant à lui, ne semblait pas affecté par ce changement.
"Ces résultats suggèrent que la pêche récréative pourrait aboutir à une situation apparente d'une forte réduction des prises mais sans changement réel dans la population des poissons, où le taux de prises décline plus vite que l'abondance des poissons", déclare Josep Alós, chercheur au Leibniz-Institute of Freshwater Ecology and Inland Fisheries et co-auteur de l'étude.
Cela veut-il dire que la diminution des stocks halieutiques, constatée à l'échelle mondiale, résulterait en fait d'un comportement plus méfiant des poissons? "Les rapports sur le déclin considérable des populations de poissons dans les océans s'appuyant uniquement sur les données provenant des pêcheries comme la pêche à la palangre du thon, de la morue ou de l'espadon pourraient donc s'expliquer par un comportement plus prudent de ces poissons. Nous devons revoir notre système de surveillance des stocks de poissons et tenir compte des possibles changements de comportement. Il se peut que certaines zones très exploitées contiennent en fait plus de poissons que nous le pensons", conclut Robert Arlinghaus, directeur de l'étude et chercheur à la Humboldt-Universität zu Berlin.
L'étude a été financée dans le cadre du projet FISH&FISHERS, qui cherche à améliorer les estimations de mortalité des poissons en étudiant les interactions spatiales entre les poissons et les pêcheurs. L'équipe espère que ses résultats contribueront à mieux protéger les écosystèmes marins, à préserver la biodiversité, et à renforcer la durabilité des pêcheries.

Auteur: Internet

Info: The role of the behavioural interactions between fish and fishers on fisheries sustainability, From 2014-01-01 to 2015-12-31, closed project

[ causes-effets ]

 

Commentaires: 0

sciences

Les effets de la musique sur le cerveau et la santé
On dit que la musique élève l'âme, mais elle élève aussi... le cerveau ! En effet, une étude récente réalisée par des chercheurs membres du Centre de recherche sur le cerveau, le langage et la musique (CRBLM) rapporte que l'apprentissage de la musique avant l'âge de sept ans influence positivement le développement du cerveau. Plus précisément, la formation musicale pendant l'enfance favorise des connexions plus fortes entre les régions sensorielles et motrices de notre matière grise, l'aidant ainsi à mieux orchestrer la planification et l'exécution de nos mouvements.
Plus encore, des données indiquent que les enfants qui suivent des leçons de musique réussissent mieux certains types de tests, particulièrement ceux de lecture et de concentration. D'autres recherches démontrent qu'une formation musicale développe les capacités auditives, notamment dans un contexte bruyant. Pareillement, l'apprentissage de plusieurs langues pendant l'enfance procure des avantages cognitifs qui peuvent ralentir la sénescence.
Le CRBLM a été créé en 2011, il réunit les forces vives de la recherche sur l'organisation, le fonctionnement et le dysfonctionnement des systèmes nerveux musical et linguistique. Etabli à l'Université McGill et financé par le FRQNT, ce regroupement stratégique rassemble des ingénieurs, des neuroscientifiques, des linguistes, des experts en vieillissement et des psychologues provenant aussi de diverses universités - Université de Montréal, Université Concordia, Université Laval, Université du Québec à Montréal - et de l'INRS.
Par exemple, l'axe de recherche sur les neurosciences se penche sur la capacité d'apprentissage de plusieurs langues. Il tente aussi de mieux comprendre comment nos méninges interagissent avec la musique pour, à long terme, mieux cerner et peut-être traiter des problèmes de langage. Car langage et musique partagent certaines zones du cerveau. C'est ce qui explique que, souvent, un accident cérébral perturbe nos facultés musicales et verbales. Par contre, musique et paroles utilisent également des circuits neuronaux séparés et peuvent donc être perturbés isolément. Les chercheurs ont constaté que beaucoup de patients atteints d'Alzheimer semblent conserver la capacité de reconnaître la musique alors qu'ils n'identifient plus les membres de leur famille et que leur discours est embrouillé.
Une grande partie des travaux sur la musique se fait dans le Laboratoire international de recherche sur le cerveau, la musique et le son (BRAMS), situé à l'Université de Montréal. Cette importante infrastructure est intégrée au CRBLM et dispose notamment de dix salles de test insonorisées à la fine pointe de la technologie et d'un système vidéo 3D d'enregistrement de mouvements.
La compréhension des effets du langage et de la musique sur le cerveau représente tout un défi. En effet, il n'y aurait pas de centre musical et langagier unique dans le cerveau. Comme pour la compréhension du langage, la musique est traitée par différents chefs d'orchestre. Ainsi, chez un musicien, une partie de la matière grise se concentre sur le mouvement des mains, tandis qu'une autre partie s'efforce de déchiffrer les notes de la partition. Par des techniques de neuro-imagerie fonctionnelle, les scientifiques enregistrent les réponses du cerveau et les mouvements de l'interprète à l'aide d'un système de senseurs. Ils combinent ensuite ces données dans des modèles théoriques neurophysiologiques et mathématiques pour comprendre comment le système nerveux permet à une personne de produire de la musique rapidement et facilement. Des chercheurs comme les codirecteurs du BRAMS - Isabelle Peretz, professeure au Département de psychologie de l'Université de Montréal, et Robert Zatorre, professeur à l'Institut neurologique de Montréal (MNI) - ont ainsi établi que certains réseaux neuronaux sont tout de même exclusivement dédiés au traitement de la musique.
Selon certaines études, compte tenu du fait que la musique et la zone de commande du mouvement partagent des circuits neuronaux, l'art musical peut aider les patients atteints de Parkinson ou ceux qui ont subi un accident vasculaire cérébral à améliorer - ou à retrouver - la mobilité. Les personnes qui ont des problèmes de cognition ou de langage profiteraient également des bienfaits d'une mélodie. Les prescriptions pour une thérapie musicale, c'est pour bientôt...

Auteur: Internet

Info: http://www.bulletins-electroniques.com/actualites/73014.htm

[ thérapie ]

 

Commentaires: 0

théologie

Penser, réfléchir... Le raisonnement d'origine et sa maîtrise, très simples, ont suffi à l'expansion des humains en tant que race grégaire "à mémoire externe". Un très léger recul de la raison, multiplié par la solidarité des hommes, a été suffisant pour assurer sa domination sur les autres espèces évoluées.

Tout comme la sémiotique de Peirce, ou la théorie de la communication, cette réflexion simple, à faible continuité, s'articule sur l'inamovible triade "réalité" "interaction" "réaction". Ainsi, de ce qu'on pourrait aussi nommer "signifiant", "interprétant", signifié" est issue la logique formelle. Elle s'est développée subséquemment sur trois axes de savoirs accumulés, le langage, les maths et l'histoire.

Résultants de ces 3 outils, mais rarement en concordance sur les trois plans, sont apparus des modèles, référents, exemples, etc. Desquels on a pu montrer des différences, analogie, oppositions, alliances, etc... Le principe du tiers exclus et sa maîtrise était bien suffisant, puissant et efficace pour assurer la suprématie humaine.

On dirait bien que le vingtième siècle, (époque de l'apparition de mon infime moi), a fait prendre conscience de trois éléments supplémentaires, dérivés, mais toujours logiques, pour effectuer de meilleurs calculs/réflexions. Ils sont de récente apparition mais seront visiblement toujours plus utilisés de par le développement de la technologie et parce que, une fois encore, nos connaissance sont grégaires. Je veux parler de l'itération, de la singularité et des statistiques.

Le premier montre qu'il y a un tâtonnement incessant, qu'on pourrait nommer "exploration des possibilités de solutions", comme le scan répété d'une situation depuis un point de vue unique et relativement stable. Le deuxième fut de réaliser que chaque "émergence du vivant" possède une singularité, quasi absolue, mais néanmoins combinable avec une infinité d'autres singularités, un peu comme une pièce de puzzle adaptable (pensons à la reproduction pour faire simple). Et le troisième, c'est qu'il y a (qu'il faut ?) en même temps une variété extraordinaire et innombrable de toute les singularités d'une branche (espèce, taxon), ce qui semble nécessaire pour conserver les meilleures chances de survie dans des milieux qui ne sont jamais stables par définition. En ce sens on pourrait penser que plus une espèce dure plus elle est miroirs de son adaptation à un milieu.

Mais c'est beaucoup plus compliqué que cela. Ce 3e point souligne donc la nécessité d'une "variété de l'innombrable", autrement la vie présente sans cesse la plus grande ouverture possible en multipliant les singularités et les variétés d'espèces (ou végétaux ou autres, eux-même interdépendants et donc indissociables de Gaïa) qui réussissent. C'est ici, en fonction de l'évolution des mathématiques, et l'étude affinée des grands nombres d'individus (on pourra penser ici aux statistiques médicales humaines) que nous basculons nécessairement dans ce qui devient la sciences post-dénombrement : les probabilités.

Et là, l'arrivée de l'indéterminisme d'Heisenberg aidant, les spécialistes de la mécanique quantique seront bien contents de pouvoir utiliser ces outils statistiques probabilistes pour s'attaquer à mieux comprendre la réalité qui s'offre à eux. En ce sens, partant de ce nouveau concept, cette qualité mélangée onde-corpuscule incompréhensible à nos sens (parce qu'orthogonale ?), et au regard des derniers constats de l'épigénétique, on peut en venir à imaginer une "source" avec des potentialités de calculs très au-delà des plus incroyables computers quantiques imaginables.

En effet, cette "origine", ou "principe-démiurge", "Dieu", "Extraterrestres" ou autre... serait capable, en fonctionnant par - et avec - les résonances d'un "réel projeté par Elle-même", de s'adapter en continu avec les impondérables au-delà de sa préhension. Avec diverses vitesses de réaction/adaptation en fonction du niveau de taille/développement de la vie.

Nous sommes bien sûr au niveau local avec cet exemple (Gaïa). Ce qui, et c'est bien amusant, conforte l'idée de "divinités régionales", planétaires par exemple, qui pourraient dès lors laisser supposer, ou imaginer, tout un système d'"entités de ce genre", avec des interactions, tensions entre elles... hiérarchies, etc.. Elargissant et complexifiant les horizons, ce qui pourra éventuellement rejoindre des notions de niveaux vibratoires et autres univers parallèles.

Bref, de quoi concocter de bien belles épopées fantastiques et autres space opera métaphysiques..

Auteur: Mg

Info: 21 février 2020

[ biophysique ] [ projectionniste ] [ yotta-physique ] [ prospectives ]

 
Commentaires: 3
Ajouté à la BD par miguel

sciences

Notre cerveau: un chaos bien organisé. Une équipe de l'UNIGE décrypte un des mécanismes de la conscience Déchiffrer le mystère de la conscience est le défi majeur des neurosciences actuelles. Dans ce contexte, l'équipe vient de mettre en lumière une caractéristique importante de la pensée consciente. Grâce aux technologies de pointe en neuroimagerie du Brain & Behaviour Laboratory (BBL) et à des méthodes d'analyses mathématiques, cette équipe a montré que la pensée consciente peut se décomposer en une succession de micro-états cérébraux ou "atomes de la pensée". La séquence temporelle de ces micro-états n'est ni aléatoire, ni déterminée, mais chaotique, ce qui signifie qu'elle a une structure, mais qui ne peut pas être anticipée. Cette organisation chaotique de l'activité cérébrale apparaît comme la clef permettant au cerveau de réagir rapidement à des événements inattendus. Cette étude, qui fait l'objet d'une publication dans la revue PNAS, constitue un pas en avant sur la piste de la compréhension de la conscience, ainsi que de certaines maladies mentales. Le fonctionnement de la conscience reste une question encore très mal comprise des scientifiques. Beaucoup ont essayé d'en saisir les fondements en élaborant des modèles théoriques, mais peu ont réellement tenté d'en comprendre l'organisation cérébrale à partir de mesures de l'activité neuronale. Les prof. Dimitri Van De Ville et Christoph Michel, de la Faculté de médecine et du Centre de neurosciences de l'UNIGE, en collaboration avec l'Institut de Bio-ingénierie de l'Ecole polytechnique fédérale de Lausanne (EPFL), ont mis en place une expérience pour mieux saisir comment la pensée spontanée et consciente s'organise. En effet, les chercheurs ont mesuré l'activité cérébrale de volontaires en utilisant simultanément deux méthodes de neuroimagerie du Brain & Behaviour Laboratory (BBL) de l'UNIGE: l'électro-encéphalographie (EEG), qui permet d'obtenir des mesures à des échelles de temps de l'ordre de la milliseconde, et l'imagerie par résonance magnétique fonctionnelle (IRMf), qui permet de suivre l'activité du cerveau sur des échelles de temps de l'ordre de la seconde. Durant les enregistrements, les volontaires devaient laisser libre cours à leurs pensées, sans se focaliser sur une idée particulière. Les signaux provenant de ces enregistrements ont été analysés à l'aide d'outils mathématiques. Les atomes de la pensée A la suite de ces expériences, les scientifiques ont d'abord remarqué que l'activité cérébrale s'organise en une succession de micro-états. Ces micro-états, considérés comme les "atomes de la pensée", sont les éléments constitutifs de la cognition, un peu comme des "morceaux" de pensée. Chaque micro-état correspond à une configuration particulière de l'activité des neurones dans le cerveau. Les chercheurs ont mis en évidence quatre micro-états distincts qui correspondent aux aspects visuels, auditifs, introspectifs et attentionnels de la pensée. Une pensée apparaît donc comme une alternance de composantes visuelles, auditives, introspectives et attentionnelles. Des fractales dans notre cerveau En outre, en appliquant une analyse mathématique avancée sur les mesures faites au moyen de l'EEG et de l'IRMf, les chercheurs ont fait une découverte surprenante: les atomes ou morceaux de pensée se succèdent avec une structure temporelle semblable aux deux échelles de temps. La même structure est ainsi observée tant à l'échelle de l'ordre du dixième de seconde (avec l'EEG) qu'à celle de l'ordre de la dizaine de secondes (avec IRMf). Cette propriété est la caractéristique principale des fractales dans la théorie du chaos. Un objet fractal présente le même motif lorsqu'il est regardé au microscope, à la loupe ou à l'oeil nu. Il semblerait que la durée des micro-états joue un rôle prédominant dans cette organisation fractale de la pensée. "Prenons l'analogie du livre dans lequel les lettres représentent les atomes de la pensée. Ceux-ci se combinent pour former des mots, qui eux-mêmes se combinent pour former des phrases ; les phrases se combinent en paragraphes, et ainsi de suite jusqu'à obtenir un livre, tout cela avec toujours les mêmes règles syntaxiques" explique Christoph Michel, un des auteurs de l'étude. "Ce que nous avons mis en évidence, c'est une syntaxe de la pensée". Fonctionnel grâce au chaos Ce serait donc grâce à cette organisation "chaotique" de la pensée que le cerveau peut se réorganiser et s'adapter très rapidement selon les besoins. Des perturbations dans les micro-états pourraient être à l'origine de certaines maladies mentales. Par exemple, on a observé chez les schizophrènes des micro-états de durée plus courte que la normale, suggérant la présence de pensées inabouties. Suite à cette découverte, les chercheurs vont maintenant pouvoir s'attacher à comprendre cette syntaxe neuronale chez des patients neurologiques et chez des sujets sains qui subissent un changement de l'état de conscience, comme pendant le sommeil.

Auteur: Internet

Info: Université de Genève 21 octobre 2010

[ réflexion ] [ hologramme ] [ désordre ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0