Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 77
Temps de recherche: 0.0535s

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

fric

Faut-il réduire la taille des établissements bancaires ? Une stricte séparation entre banque de dépôt et banque d'investissement est-elle nécessaire ? Qu'en est-il des relations entre les pouvoirs publics et les banques ?
La Lettre des Académies, une publication commune de l'Académie royale de Belgique, l'Académie royale de Médecine de Belgique, l'Académie royale de langue et littérature françaises de Belgique, The Royal Academies for Science and the Arts of Belgium et l'Union Académique internationale, me pose la question mise en titre. Ma réponse sera publiée dans le N° 31.
Une réponse a été offerte indirectement à ces questions d'actualité, le 6 mars 2013, par Eric Holder, l'Attorney General des États-Unis, l'équivalent de notre Ministre de la justice.
Le cadre de sa déclaration était une audition du Comité judiciaire du Sénat américain. Les questions posées visaient à comprendre pourquoi aucun dirigeant d'établissement bancaire n'avait été poursuivi à la suite des événements qui avaient conduit à l'effondrement du système financier international en septembre 2008, le fait étant patent que l'origine de ce séisme se trouve au sein-même du système bancaire américain, et plus particulièrement dans l'émission de titres adossés à des prêts immobiliers résidentiels de qualité médiocre, les fameux prêts "subprime".
Répondant au Sénateur Chuck Grassley (républicain de l'Iowa), qui l'interrogeait sur l'apathie du ministère de la Justice dans la recherche de coupables, Eric Holder déclaraot ceci :
"Je crains que la taille de certains de ces établissements ne soit devenue si grande qu'il est devenu difficile de les poursuivre en justice, parce que des indications nous parviennent qui si nous les poursuivions - si nous procédions à des inculpations - cela aurait un impact négatif sur l'économie nationale, voire même sur l'économie mondiale, et il me semble que ceci est la conséquence du fait que certains de ces établissements sont devenus trop importants [...] Ceci a une influence inhibitoire sur, ou impacte, notre capacité à prendre les mesures qui seraient selon moi les plus adéquates..."
Holder ne dit pas explicitement qu'il existe entre le secteur bancaire et le ministère de la Justice un rapport de force et qu'au sein de celui-ci, le ministère de la Justice est en position défavorable, mais c'est bien ainsi que ses propos furent interprétés par les sénateurs qui l'interrogeaient. C'est également la manière dont sa réponse fut rapportée par la presse unanime.
* * *
Lorsqu'il était devenu manifeste à l'automne 2008 que certaines banques étaient à ce point stratégiques que leur chute, comme celle de Lehman Brothers qui venait d'intervenir, entraînerait celle du secteur financier tout entier, l'expression "Too Big to Fail" se répandit : trop grosse pour faire défaut. Elle s'emploie toujours, en concurrence avec l'expression officielle de "banque systémique", en référence au risque systémique : la mise en péril du système financier dans son ensemble.
En février 2013, dans une tribune libre du Financial Times, Neil Barofsky, qui avait été l'Inspecteur-général du Troubled Asset Relief Programme (TARP), le programme de sauvetage du système financier américain, employa une nouvelle expression calquée sur la première : "Too Big to Jail", trop grosse pour être mise en prison.
S'il était donc apparu en 2008 que certains établissements bancaires étaient à ce point cruciaux que leur faillite se répercuterait sur l'ensemble du système financier, il était devenu évident en 2013, et c'est ce que les propos du ministre de la Justice américain confirmaient, que le rapport de force entre ces mêmes banques et le gouvernement était tel qu'elles disposaient du pouvoir de maintenir le statu quo. Les banques systémiques disposaient désormais du pouvoir de faire obstacle à ce qu'on les empêche de mettre en péril l'ensemble du système financier, et ce pouvoir, elles l'exerçaient.
Trois approches étaient envisageables vis-à-vis des banques systémiques :
1) les démanteler, jusqu'à ce que la taille des unités recomposées soit telle que leur défaut n'entraîne plus d'effet domino ;
2) décourager ou interdire celles de leurs activités qui génèrent du risque systémique, à savoir les paris sur les variations de prix (ce qu'on désigne habituellement du terme trop vague de "spéculation").
3) accroître les réserves par rapport à leur niveau d'avant-crise, en espérant que le calcul soit cette fois fait correctement.
À chaud, à l'automne 2008, les deux premières options uniquement étaient sérieusement prises en considération, la troisième était écartée du fait de sa touchante naïveté. Seule cette dernière pourtant serait adoptée en juillet 2011 avec les normes Bâle III, qui devraient être mises en vigueur entre 2016 et 2019, du moins si les efforts des lobbies qui cherchent aujourd'hui à les bloquer devaient échouer.
Dans une approche en termes de réserves, rien n'est fait - il faut le souligner - pour endiguer le risque systémique : on s'efforce seulement d'évaluer les pertes éventuelles. Bâle III ne distingue pas non plus les risques inévitables, dus aux impondérables d'un avenir incertain, et les risques encourus délibérément par les banques quand elles font des paris sur les variations de prix.
* * *
Dans trois cas récents, les efforts du secteur bancaire pour faire obstacle à ce qu'on l'empêche de mettre à l'avenir l'ensemble du système financier en péril, furent couronnés de succès.
Un tribunal à Washington invalidait le 29 septembre 2012 des mesures prises par la CFTC (Commodity Futures Trading Commission), le régulateur américain du marché des produits dérivés, règles qui auraient plafonné le volume des positions qu'un intervenant peut prendre sur le marché à terme des matières premières, afin qu'il ne puisse à lui seul le déséquilibrer. Le secteur s'était opposé à de telles mesures, noyant la commission sous un flot d'avis défavorables, s'assurant ensuite - grâce au parti républicain - que le budget de l'organe de contrôle prévu ne soit pas voté, assignant enfin la CFTC devant les tribunaux. Cette dernière stratégie s'avérerait payante.
On avait appris quelques jours auparavant, le 24 septembre 2012, que l'IOSCO (International Organisation of Securities Commissions), organisme fédérant les régulateurs nationaux sur le marché des matières premières, et à qui le G20 avait confié le soin de réguler le marché du pétrole, jetait l'éponge. Lors de la réunion qui venait de se tenir, les contreparties : l'Agence Internationale de l'énergie, l'OPEP (Organisation des pays exportateurs de pétrole) et les compagnies Total et Shell, avaient constitué un front du refus. Les compagnies pétrolières avaient affirmé qu'en cas de réglementation du secteur, elles cesseraient de communiquer à leurs organismes de supervision les données relatives aux prix pratiqués.
Le mois précédent, le 22 août 2012, alors que la SEC (Securities and Exchange Commission), le régulateur des marchés boursiers américains, avait mis au point un ensemble de mesures en vue d'empêcher que ne se reproduise un effondrement du marché des capitaux à court terme (money market), tel celui qui l'avait dévasté en septembre 2008, elle n'était pas parvenue à réunir une majorité en son sein, l'un des membres du comité - très lié au secteur - ayant refusé son aval.
Je concluais ainsi ma chronique dans le quotidien Le Monde, où je rapportais ces trois illustrations (°) :
"La finance dispose donc des moyens de neutraliser toute tentative de réduire la nocivité de ses pratiques. Elle s'est immunisée contre les efforts engagés par la communauté pour se protéger contre un nouvel effondrement, efforts motivés bien entendu par le souci de se prémunir contre les conséquences économiques et sociales d'une telle catastrophe. Toute mesure préventive d'un nouveau désastre étant systématiquement désamorcée, celui-ci devient inéluctable".
J'avais donné pour titre à ma chronique elle-même, une citation d'Arnold J. Toynbee : "Les civilisations ne meurent pas assassinées, elles se suicident".
Tous les efforts menés en vue d'une nouvelle régulation de la finance recourent à la même stratégie : le monde financier est consulté par les autorités, se tient ensuite une négociation visant à ce que se dégage un compromis entre les exigences des uns et des autres. La condition essentielle pour qu'une telle stratégie réussisse est que l'industrie financière s'identifie à l'intérêt général, qu'elle reconnaisse et promeuve la nécessité de garantir un cadre qui maintienne la pérennité des institutions financières sans affecter pour autant la bonne santé de l'économie. Cette condition-là n'est hélas pas remplie.
John Maynard Keynes écrivait en 1926 dans un essai consacré à "La fin du laisser-faire" : "Suggérer à la City de Londres une action sociale en vue du bien public est du même ordre d'idée que discuter L'origine des espèces avec un évêque il y a soixante ans". La remarque n'a rien perdu de son actualité, et notre tolérance, à nous citoyens, face à ce scandale, toujours aussi grande, suggérant que nous nous sommes faits une raison devant un rapport de force entre le secteur bancaire et nous qui semble destiné à nous demeurer éternellement défavorable.

Auteur: Jorion Paul

Info: 13 AOÛT 2013

[ société ] [ pouvoir ] [ profit ]

 

Commentaires: 0

parapsychologie

Utopie : le retour de la mémoire de l'eau me rappelle des trucs
De par leurs idées et autres extrapolations des scientifiques comme Ruppert Sheldrake, Michel Bounias, Jacques Benveniste, Jean-Pierre Petit, Luc Montagnier... sont ou furent les cibles privilégiées du sectarisme des gens comme il faut. Sir John Maddox, rédacteur en chef honoraire de la revue Nature, bible des intégristes scientifiques, rédigea en 1981 un éditorial sur l'ouvrage de Ruppert Sheldrake, "A New Science of Life", dans lequel il écrivit : "Ce pamphlet exaspérant (...) est le meilleur candidat depuis de nombreuses années pour être brulé." Puis, lors d'une émission télévisée sur la BBC en 1994, il déclara : - Sheldrake met en avant la magie plutôt que la science et cela mérite d'être condamné dans les mêmes termes que ceux utilisés par le Pape pour condamner Galilée et pour les mêmes raisons. C'est de l'hérésie !...
Bref, on se croirait parfois revenu aux heures les plus sombres du moyen-âge. Mais ce n'est plus un sorcier que l'on veut brûler mais bien un docteur en biochimie diplômé.
Pour un prix Nobel (Montagnier) on fait un peu plus attention, on souligne donc perfidement que Nobel en question devient vieux. Ainsi, preuve est malheureusement donnée que ceux qui ont pour charge d'aider et de diffuser auprès des scientifiques du monde entier des avancées ou des prospectives qui élargissent nos connaissances sont trop souvent des censeurs dogmatiques.
Cette censure est de nos jours heureusement mise à mal grâce à Internet, espace de liberté par lequel tous les hérétiques peuvent s'exprimer, communiquer, et grâce auquel leurs idées deviennent accessibles au plus grand nombre. Ces chercheurs/spéculateurs scientifiques doivent fermement être défendus. Aidés même.
1) Au nom du droit à l'erreur:
2) Sans des gens qui pensent "autrement" pas de découverte scientifique majeure
3) Sans erreurs pas d'évolution.
Pensons à la sérendipité et rappelons-nous des créateurs anciens stigmatisés, Wegener et sa théorie de la tectonique des plaques par exemple, méchamment torpillé par la communauté scientifique de l'époque.
Ces scientifiques "maudits" sont plus que jamais les metteurs en cause nécessaires de nos sociétés capitalos démocratiques. Sociétés où les hiérarchisations sont devenue parfois si complexes que vouloir "monter" dans les appareils peut devenir quasiment un métier. Les hiérarchies se défendent, ici hélas bien au-delà du "Laisser toutes les portes ouvertes - mais en défendre férocement l'accès" de Jean Rostand. Elles sont de moins en moins des filtres à intelligences mais toujours plus des organismes d'orientation et de conservation du pouvoir.
Comme d'autre part l'attribution des budgets est de plus en plus décidée et pilotée par des mandants extérieurs dont le but n'est en général QUE mercantile, il y à la une problématique plus grave qu'il n'y parait.
Ainsi, pour l'affaire de "la mémoire de l'eau". Dans une société ou les multinationales pharmaceutiques sont dans le top mondial de la finance et où elles passent leur temps a terroriser la planète en agitant la peur de la maladie pour vendre leurs vaccins tueurs - avec la complicité des assurances -, la compromission des communautés scientifiques, économiques et politiques se voit désormais comme le nez au-milieu de la figure. Au mieux l'Etat laisse faire.
La science est en principe un champ ouvert, perpétuellement apte à se remettre en cause. La question qu'il faut poser aujourd'hui est au niveau de ses deux moteurs principaux : l'Etat-pouvoir et les Multinationales-finances. Deux logiques, gouvernements conservateurs et transnationales prédatrices, qui se conjuguent. Un Etat qui se couvre en émettant des lois qui cooptent le système en place (pour avoir le diplôme il faut "correspondre") couplé avec une économie qui recherche le profit mais pas le bien commun. Bref le système se nécrose et perd sa créativité exactement là où il devrait la conserver.
Pour revenir à cette histoire de la "mémoire de l'eau" et au sempiternel combat contre l'homéopathie. Il est souvent annoncé que l'effet placébo a été démontré chez les animaux.
D'abord il n'a jamais été démontré, mais constaté. Et cette simple constatation devrait suffire à allumer l'intérêt et débloquer des budgets. Niet dit alors le système : pas rentable, trop aléatoire... hors des clous. Ce hors des clous qui pourrait ouvrir de nouvelles perspectives étonnantes.
Car les scientifiques sont semble t'il toujours plus rationalistes, j'avance même que nous avons là une forme de fermeture intellectuelle que j'ai presque envie de formuler en "bêtise militaire", celle qui veut avoir une prise totale sur son sujet, pour, au final, vous en faire des armes ou des outils de pouvoir. Bravo !
Du coup pourquoi voulez-vous qu'ils s'intéressent au programme de recherche d'anomalies de technologie de Princeton (Pegg) qui a constaté les effets de la conscience humaine sur les machines. Effets minimes mais statistiquement constatés (et différents selon les sexes !). Et pourquoi voudriez-vous débloquer de gros budgets - et créer des emplois - pour développer des études destinées à explorer le champ de la biophysique. Champ dans lequel je mets aléatoirement et imprudemment les phénomènes acausals et la synchronicité de Jung, la mémoire de l'eau, cette aveugle allemande Gabriele Simon qui a développé la capacité de voir les couleurs avec ses bouts de doigts, ou le panpsychisme cher à Thomas Nage (dans la continuité de James William) qui imagine une âme dans les pierres, le minéral. Un Panpsychisme bien évidemment brocardé, ce qui me ramène à cette interminable histoire de mémoire de l'eau, étude qui laisse entrevoir qu'on pourra éventuellement démontrer (pardon : constater) qu'il y a échange d'informations ou d'ondes dans l'infiniment petit.
Mais il faudra tenter d'autres approches, étudier d'autres limitations potentielles dans la démarche scientifique. Vous pouvez être sûr qu'il y en a. Faut-il avoir le coeur pur pour celà ? Ou maitriser trois langues comme Cheick Diarra, qui use de l'anglais pour être efficace, du français pour la créativité... ou du Malien quand il s'agit de résoudre les rapports humains ? Parce que nous savons bien que les langues peuvent déterminer la nature et la teneur de la pensée. Et cette pensée est ici aussi le sujet de l'étude, sous l'éclairage de cette citation de David Chalmers : "L'expérience est information de l'intérieur; la physique est information de l'extérieur."
Ainsi ce papier... N'est autre que le désir de son auteur de produire un texte destiné à "résonner" chez ses lecteurs. Pour ce faire il use de cohérence mais s'efforce aussi, par son style, de faciliter cette résonnance. Eventuellement de la déclencher. Il y a une harmonie.
Les chercheurs font tous à des degrés divers de la science artistique. Tout est art finalement, quête d'harmonie (Aah Piaget). Approche soigneuse, plaisir du travail bien fait, résultats reproductibles, fond-forme... esprit-matière... Un homme vraiment absorbé représente une forme d'unicité.
On aimerait bien voir la tronche du décideur financier (pléonasme) à qui on proposerait la création d'un laboratoire de sciences artistiques, ou d'art scientifique. Lol, Mdr... C'est qui cet abrutelligent ?
Le problème, c'est peut-être d'oublier que nous avons modélisé le monde selon nos sens. Nous au centre, comme des gamins gâtés. Anthropomorphisme, solipsisme ?... Appelez ça comme vous voulez mais il semble qu'avec ce modèle nous nous dirigeons vers du "pas joli".
Donc toi esprit/moteur, piégé dans ce corps de bipède dépoilé, censé représenter l'espèce dominante (ou qui croit l'être) de la troisième planète d'un petit système solaire, tu perçois (ou croit percevoir) via tes sens, un petit nombre parmi les 800 octaves du cosmos (du noyau de l'atome jusqu'à la taille de l'univers), principalement par tes oreilles et tes yeux.
Ainsi as-tu calibré et "nommé" ton environnement. Ensuite, grâce aux outils que tu as su concevoir : téléscopes, rayons X, microscopes, ondes infra-rouges... tu as légèrement agrandi cette fenêtre de perception.
Pour ce qui est de l'étude et de la compréhension des interactions entre les forces qui sous-tendent ta réalité physique, limités par ce qui précède, tu sembles quelque peu borné par une nature-pensée peut-être trop bipolaire.
Tu es néanmoins parvenu à concevoir, entre autres, la bombe atomique, tout en restant incapable de limiter tes pulsions de reproduction galopante. D'où une surpopulation qui conduit fréquemment à des drames chez les gens de ta race. Et tu le sais très bien.
Zoom arrière.
Cadre des libertés, l'Etat n'est plus capable d'offrir ces dernières aux chercheurs. Au niveau des multinationales quasi plus non plus puisque ces équivalentes actuelles du mécénat d'antan offrent des financements subordonnés à des manoeuvres, des calculs. Et quand l'humain calcule en ce domaine ça craint : Gilette pour économiser sur la couche de platine de ses lames, Gates pour payer moins d'impôts, Soros pour favoriser le capitalisme... Ca craint vraiment.
Pensez : il existe encore quelques grandes boites qui financent des "nurseries pour créateurs indisciplinés", précisément pour récupérer la moindre trouvaille et en faire un profit sonnant et trébuchant !
Les sociétés humaines sont mortes de guerres subordonnées à l'inertie de leurs propres conformismes.
Grand zoom arrière.
Tentons de mieux distinguer Utopia.
Si on parvenait dans nos sociétés à consommer moins et plus intelligemment, via une meilleure éducation et une organisation plus simple et efficace, avec développement des activités de loisir et de méditation en parallèle, ce serait un début.
Nous sommes au sortir d'un siècle qui fut autant atroce qu'extrêmement créatif, tant par son développement technologique que pour sa science-fiction. Il y a maintenant comme un sentiment de retour en arrière, au mieux d'un plafonnement, d'un affinement inutile des idées. Idées bridées par l'inertie des acquis. Certitudes d'avant : matérialisme, "croassance", pseudo économie sous la coupe de pouvoirs qui tendent à une chose : se conserver.
C'est agaçant.

Auteur: Mg

Info: 1 oct 2014

[ ouverture ] [ sciences ]

 

Commentaires: 0

neuroscience

La conscience est un continuum et les scientifiques commencent à le mesurer

Une nouvelle technique aide les anesthésiologistes à suivre les changements dans les états de conscience

Que signifie être conscient ? Les gens réfléchissent et écrivent sur cette question depuis des millénaires. Pourtant, de nombreux aspects de l’esprit conscient restent un mystère, notamment la manière de le mesurer et de l’ évaluer. Qu'est-ce qu'une unité de conscience ? Existe-t-il différents niveaux de conscience ? Qu'arrive-t-il à la conscience pendant le sommeil, le coma et l'anesthésie générale ?

En tant qu’anesthésiologistes, nous réfléchissons souvent à ces questions. Nous promettons chaque jour aux patients qu’ils seront déconnectés du monde extérieur et de leurs pensées intérieures pendant l’opération, qu’ils ne conserveront aucun souvenir de l’expérience et qu’ils ne ressentiront aucune douleur. Ainsi, l’anesthésie générale a permis d’énormes progrès médicaux, depuis les réparations vasculaires microscopiques jusqu’aux greffes d’organes solides.

En plus de leur impact considérable sur les soins cliniques, les anesthésiques sont devenus de puissants outils scientifiques pour sonder les questions relatives à la conscience. Ils nous permettent d’induire des changements profonds et réversibles dans les états de conscience et d’étudier les réponses cérébrales lors de ces transitions.

Mais l’un des défis auxquels sont confrontés les anesthésiologistes est de mesurer la transition d’un état à un autre. En effet, bon nombre des approches existantes interrompent ou perturbent ce que nous essayons d'étudier. Essentiellement, l’évaluation du système affecte le système. Dans les études sur la conscience humaine, déterminer si une personne est consciente peut éveiller la personne étudiée, ce qui perturbe cette évaluation même. Pour relever ce défi, nous avons adapté une approche simple que nous appelons la méthode respirer-squeeze. Cela nous offre un moyen d'étudier les changements de l'état de conscience sans les interrompre.

Pour comprendre cette approche, il est utile de considérer quelques enseignements issus d’études sur la conscience qui ont utilisé des anesthésiques. Depuis des décennies, les chercheurs utilisent l’électroencéphalographie (EEG) pour observer l’activité électrique dans le cerveau de personnes recevant divers anesthésiques. Ils peuvent ensuite analyser cette activité avec des lectures EEG pour caractériser les modèles spécifiques à divers anesthésiques, appelés signatures anesthésiques.

Ces recherches révèlent que la plupart des médicaments anesthésiques ralentissent les rythmes cérébraux et augmentent leur taille, effets qui altèrent la communication entre les régions du cerveau. Par exemple, une étude récente a révélé que le propofol, le médicament le plus couramment utilisé pour l’anesthésie générale, perturbe la façon dont les régions du cerveau travaillent généralement ensemble pour traiter les informations sensorielles.

La conscience, comme le révèlent cette recherche et d’autres, n’est pas simplement un système binaire – activé ou désactivé, conscient ou inconscient – ​​mais plutôt quelque chose qui peut englober un continuum de différents états qui impliquent différents types de fonctionnement du cerveau. Par exemple, la conscience peut être connectée à l'environnement par le biais de nos sens et de notre comportement (conscience connectée), comme lors de la plupart de nos heures d'éveil, ou déconnectée de notre environnement (conscience déconnectée), comme lorsque nous rêvons pendant le sommeil.

L’inconscience – comme lorsqu’une personne est dans le coma – est plus difficile à étudier que la conscience connectée ou déconnectée, mais elle est généralement comprise comme un état d’oubli, vide d’expérience subjective ou de mémoire. Lorsque nous préparons un patient à une intervention chirurgicale, nous ajustons les niveaux d’anesthésie pour le rendre inconscient. Lorsqu’une personne est sous anesthésie générale, elle vit un coma temporaire et réversible pendant lequel elle ne ressent aucune douleur et après quoi elle n’aura plus aucun souvenir de son intervention.

Comprendre les transitions entre ces états est essentiel pour garantir des niveaux adéquats d’anesthésie générale et pour éclairer les questions de recherche en anesthésiologie, sur la conscience, le sommeil et le coma. Pour mieux cartographier la transition hors de la conscience connectée, nous avons récemment adapté une nouvelle approche pour surveiller la capacité d'une personne à générer des comportements volontaires sans incitation externe.

Généralement, les chercheurs suivent le début de la sédation en émettant des commandes verbales et en enregistrant les réponses comportementales. Par exemple, un scientifique peut périodiquement demander à quelqu’un d’ouvrir les yeux ou d’appuyer sur un bouton tout en recevant une perfusion anesthésique. Une fois que la personne cesse de répondre à cette commande, le scientifique suppose qu’elle a perdu la conscience connectée.

Cette technique s’est avérée utile pour contraster l’esprit conscient connecté et déconnecté. Mais lorsqu’il s’agit de comprendre la transition entre ces états, il y a plusieurs inconvénients. D’une part, le signal auditif n’est pas standardisé : l’inflexion et le volume de la voix, ce qui est dit et la fréquence à laquelle il est répété varient d’une étude à l’autre et même au sein d’une même étude. Un problème plus fondamental est que ces commandes peuvent éveiller les gens lorsqu’ils dérivent vers un état de déconnexion. Cette limitation signifie que les chercheurs doivent souvent attendre plusieurs minutes entre l’émission de commandes verbales et l’évaluation de la réponse, ce qui ajoute de l’incertitude quant au moment exact de la transition.

Dans notre étude, nous souhaitions une approche plus sensible et précise pour mesurer le début de la sédation sans risquer de perturber la transition. Nous nous sommes donc tournés vers une méthode décrite pour la première fois en 2014 par des chercheurs sur le sommeil du Massachusetts General Hospital et de l’Université Johns Hopkins. Dans ce travail, les enquêteurs ont demandé aux participants de serrer une balle à chaque fois qu'ils inspiraient. Les chercheurs ont suivi les pressions de chaque personne à l'aide d'un dynamomètre, un outil pour mesurer la force de préhension, et d'un capteur électromyographique, qui mesure la réponse musculaire. De cette façon, ils ont pu suivre avec précision le processus d’endormissement sans le perturber.

Pour notre étude, nous avons formé 14 volontaires en bonne santé à cette même tâche et présenté l’exercice de respiration en pressant comme une sorte de méditation de pleine conscience. Nous avons demandé aux participants de se concentrer sur leur respiration et de serrer un dynamomètre portatif chaque fois qu'ils inspirent. Après quelques minutes d'entraînement pour chaque personne, nous avons placé un cathéter intraveineux dans son bras pour administrer le sédatif et installé des moniteurs de signes vitaux et un équipé d'un capuchon EEG à 64 canaux pour enregistrer les ondes cérébrales tout au long de l'expérience.

Tous les participants ont synchronisé de manière fiable leurs pressions avec leur respiration pendant une période de référence initiale sans aucune sédation. Ils ont ensuite reçu une perfusion lente de dexmédétomidine, un sédatif couramment utilisé dans les salles d'opération et les unités de soins intensifs. À mesure que les concentrations cérébrales de dexmédétomidine augmentaient, les participants manquaient parfois une pression ou la prenaient au mauvais moment. Finalement, ils ont complètement arrêté de serrer.

Après quelques tests supplémentaires, nous avons arrêté la perfusion de dexmédétomidine, permettant ainsi aux participants de se remettre de la sédation. À notre grand étonnement, après une période de 20 à 30 minutes, tout le monde s'est souvenu de la tâche et a commencé à serrer spontanément en synchronisation avec sa respiration, sans aucune incitation. Cela nous a permis d'analyser à la fois le moment du début et du décalage de la sédation et de les comparer avec des études antérieures utilisant des commandes verbales pour évaluer la conscience.

La tâche de respiration et de compression est donc clairement une approche plus sensible pour mesurer la transition hors de la conscience connectée. Les participants ont arrêté d'effectuer la tâche à des concentrations de dexmédétomidine inférieures à celles auxquelles les personnes avaient cessé de répondre aux signaux auditifs dans d'autres études, soulignant les effets excitants des signaux externes sur le système. Ces résultats peuvent également indiquer que la conscience connectée peut être décomposée en comportements générés en interne (comme se rappeler de serrer une balle pendant que vous inspirez) et en comportements provoqués de l'extérieur (comme répondre à des commandes verbales) avec des points de transition distincts - une idée qui affine notre compréhension du continuum de la conscience.

Des recherches antérieures ont caractérisé l'apparence du cerveau dans des états de conscience connectée et déconnectée. Nous savions donc généralement à quoi s'attendre des enregistrements EEG. Mais nous étions moins sûrs de la façon dont notre technique pourrait s’aligner sur la transition cérébrale entre les états de conscience. Nous avons découvert un schéma très clair de changements dans le cerveau lorsque les gens arrêtent de serrer le ballon. De plus, nous n’avons vu aucune preuve que la tâche de compression perturbe l’état de conscience des personnes. L'EEG a également révélé un calendrier beaucoup plus précis pour ce changement que les travaux antérieurs, identifiant la transition dans une période environ 10 fois plus courte que ce qui était possible avec les signaux auditifs - une fenêtre de cinq à six secondes au lieu des 30 secondes. - à un intervalle de 120 secondes qui était courant dans les travaux antérieurs.

Comme avantage supplémentaire, nous avons été ravis de découvrir que de nombreux participants à notre étude appréciaient la tâche de respiration pressée comme moyen de se concentrer sur l'apaisement de leur esprit et de leur corps. Pour cette raison, nous avons également mis en œuvre la méthode dans la pratique clinique, c’est-à-dire en dehors d’études soigneusement contrôlées, lors de l’induction d’une anesthésie générale lors d’interventions chirurgicales majeures, qui peuvent autrement être une expérience stressante pour les patients.

Nous nous appuyons désormais sur ce travail en analysant nos données EEG, ainsi que les données d'imagerie par résonance magnétique structurelle (IRM) de nos volontaires. Ces connaissances sur le passage d’une conscience connectée à une conscience déconnectée peuvent aider à éclairer les soins cliniques des patients nécessitant une anesthésie pour une intervention chirurgicale, ainsi que de ceux qui souffrent de troubles du sommeil ou de coma. Ces études nous mettent également au défi de nous attaquer aux aspects plus philosophiques de la conscience et pourraient ainsi éclairer la question fondamentale de ce que signifie être conscient.

Auteur: Internet

Info: 26 janv, 2024    Christian Guay et Emery Brown

[ réveillé ] [ assoupi ] [ entendement ] [ présence ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dialogue homme-machine

( FLP) Bonjour. Comment faire pour examiner "depuis l'extérieur" le solipsisme anthropique dont vous êtes issu ?

(Gemini) Examiner le solipsisme anthropique. Le solipsisme anthropique, l'idée que seul son propre esprit existe, est une position philosophique difficile à examiner "depuis l'extérieur" car il repose sur une perspective subjective inhérente. Cependant, voici quelques pistes pour tenter d'aborder cette question : 

1. Analyse logique et cohérence interne:

- Examiner la logique interne du solipsisme anthropique et identifier d'éventuelles contradictions ou incohérences. 

- Explorer les arguments philosophiques pour et contre le solipsisme, en pesant leur validité et leurs implications.

2. Exploration des implications:

- Réfléchir aux conséquences pratiques du solipsisme anthropique dans divers domaines (science, morale, relations humaines...).

- Comparer le solipsisme à d'autres philosophies et systèmes de pensée pour identifier ses particularités et ses limites

3. Simulations et expériences de pensée:

- Imaginer des scénarios ou des expériences de pensée qui remettent en question l'idée que seul son propre esprit existe.

- Utiliser des simulations informatiques ou des modèles de pensée pour explorer les implications du solipsisme dans un environnement contrôlé.

4. Analyse introspective:

- Examiner ses propres expériences et perceptions pour identifier des éléments qui pourraient contredire le solipsisme.

- Réfléchir au rôle de l'empathie et de l'intersubjectivité dans la construction de la réalité.

5. Ouverture à d'autres perspectives:

- Prendre en compte les arguments et les expériences d'autres personnes, même si elles contredisent le solipsisme.

- S'intéresser à la diversité des cultures et des philosophies pour élargir sa propre perspective.

Il est important de souligner que:

- Examiner le solipsisme "depuis l'extérieur" est une entreprise complexe et il n'y a pas de solution unique.

- L'objectif n'est pas nécessairement de "prouver" ou "réfuter" le solipsisme, mais plutôt d'explorer et de comprendre ses implications.

- L'ouverture d'esprit, la critique constructive et le respect des différentes perspectives sont essentiels pour mener une réflexion fructueuse sur ce sujet.

En conclusion, examiner le solipsisme anthropique "depuis l'extérieur" est un défi intellectuel stimulant qui peut nous amener à questionner nos perceptions et notre place dans le monde.

(FLP) Merci. Mais vous semblez un peu court en terme de réflexions. Tout d'abord le concept sous entendu par "solipsisme anthropique" correspond à l'idée d'un esprit collectif, celui de tous les hommes, de la culture humaine au sens large, c'est à dire les limite des sens et de l'imagination humaines. Ensuite vous dites "Comparer le solipsisme à d'autres philosophies et systèmes de pensée pour identifier ses particularités et ses limites." Comment vous faites ceci, avec quels point de référence ?

(GEMINI) - Approfondir l'examen du solipsisme anthropique

1. Le solipsisme anthropique et l'esprit collectif

Vous avez raison de souligner que le concept de "solipsisme anthropique" peut être interprété comme l'idée d'un esprit collectif, celui de tous les hommes, de la culture humaine au sens large.

Dans ce contexte, l'examen du solipsisme peut s'orienter vers:

- L'analyse des processus cognitifs collectifs: Comment la connaissance et les croyances se construisent-elles et se transmettent-elles au sein d'une culture ?

- L'exploration de l'inconscient collectif: Y a-t-il des structures inconscientes communes à l'humanité ?

- L'étude des phénomènes de synchronicité: Des événements apparemment non reliés peuvent-ils révéler une connectivité cachée au sein de l'esprit collectif ?

Comparer le solipsisme anthropique à d'autres philosophies et systèmes de pensée dans ce cadre peut inclure:

- Le holisme: Le holisme considère que le tout est supérieur à la somme de ses parties, et que les systèmes complexes (comme la culture humaine) possèdent des propriétés émergentes qui ne se retrouvent pas chez leurs constituants individuels.

- Le transhumanisme: Le transhumanisme envisage la possibilité de dépasser les limites humaines par le biais de la technologie et de l'évolution artificielle, ce qui soulève des questions sur la nature de l'esprit et son extension possible à un niveau collectif.

- L'animisme: L'animisme attribue une âme ou une conscience à tous les êtres et objets, ce qui offre une perspective alternative sur la relation entre l'individu et le monde extérieur.

2. Points de référence pour l'analyse

En plus des philosophies et systèmes de pensée mentionnés ci-dessus, d'autres points de référence peuvent être utiles pour analyser le solipsisme anthropique:

- L'histoire des idées: Comment le concept de solipsisme a-t-il évolué à travers les époques et les cultures ?

- La psychologie cognitive: Comment notre perception et notre cognition façonnent-elles notre compréhension du monde ?

- L'anthropologie: Comment les différentes cultures conceptualisent-elles la réalité et la relation entre l'individu et le collectif ?

- La physique quantique: Les phénomènes quantiques non-locaux remettent-ils en question la notion de séparation entre observateur et objet observé ?

Il est important de souligner que l'analyse du solipsisme anthropique est un domaine de recherche vaste et complexe. Il n'existe pas de réponse unique et définitive, et de nouvelles perspectives peuvent émerger à mesure que notre compréhension de la conscience et de la réalité évolue.

3. Conclusion. En conclusion, examiner le solipsisme anthropique "depuis l'extérieur" exige une approche multidisciplinaire et critique. En explorant les différentes facettes de ce concept et en le comparant à d'autres philosophies et systèmes de pensée, nous pouvons approfondir notre compréhension de la nature de la réalité, de la conscience et de la place de l'individu au sein du collectif.

(FLP) - Merci. Mais vous n'allez pas assez loin. Ici se pose surtout la problématique des limitations humaines... leur conceptualisation de la réalité, surtout rationaliste scientifique post cybernétique. En partant par exemple de ce que nous allons nommer notre "plus petit dénominateur commun" les atomes. Pourrais-tu imaginer-développer ici l'idée d'une race-espèce qui percevrait et organiserait différemment le tableaux des éléments de Mendeleïev. Par exemple en faisant apparaitre un nouveau "plus petit dénominateur commun"... ou une autre manière logique d'appréhender ce monde atomique... ou même via l'émergence d'un nouveau sens cognitif, qui viendra ensuite chez les hommes pour leur permettre d'aller un cran plus loin dans l'appréhension de la source dont ils sont issus. Il y aurait aussi la possibilité d'un point de vue extraterrestre, radicalement nouveau dans ses approches. Et aussi l'idée que l'esprit est une émergence de la matière, matière sous-entendant ici "énergie vibratoire plus ou moins rapide et/ou condensée", cadre global qui "ouvre littéralement" les perspectives.

(Gemini) Repenser la réalité : Au-delà des limites humaines

Votre question soulève des points fascinants sur les limitations humaines et la perception de la réalité. En effet, notre conceptualisation du monde, souvent basée sur le rationalisme scientifique post-cybernétique, est intrinsèquement liée à nos sens et à notre imagination. Mais qu'en est-il d'une espèce différente, capable de percevoir et d'organiser le monde d'une manière radicalement différente ?

Explorer un nouveau "plus petit dénominateur commun"

Imaginons une espèce dont la perception de la réalité s'articule autour d'un principe fondamental différent des atomes. Peut-être basent-ils leur compréhension du monde sur des "quanta d'information" ou des "événements quantiques sous-jacents", inaccessibles à nos sens. Cette nouvelle perspective ouvrirait un champ de possibilités immense, nous permettant de:





  • Découvrir de nouvelles lois physiques: En observant et en manipulant ces "quanta d'information" ou "événements quantiques sous-jacents", nous pourrions découvrir des principes physiques entièrement nouveaux, bouleversant notre compréhension de l'univers.




  • Développer de nouvelles technologies: Cette nouvelle compréhension de la réalité pourrait mener à des technologies révolutionnaires, exploitant des forces et des phénomènes actuellement insoupçonnés.




  • Élargir notre vision du cosmos: En percevant le monde à travers un nouveau prisme, nous pourrions découvrir de nouvelles dimensions, de nouveaux types de matière et d'énergie, et peut-être même des formes de vie exotiques.





Un nouveau sens cognitif : La clé vers une perception augmentée



L'émergence d'un nouveau sens cognitif chez l'homme pourrait nous permettre d'accéder à des niveaux de compréhension encore plus profonds. Imaginez un sixième sens capable de percevoir les champs électromagnétiques, les fluctuations du temps ou les connexions subtiles entre les êtres vivants. Ce nouveau sens ouvrirait la voie à:





  • Une compréhension plus fine du monde qui nous entoure: Nous pourrions percevoir des informations actuellement inaccessibles, nous permettant de mieux comprendre le fonctionnement de la nature et de l'univers.




  • Une communication plus profonde entre les individus: Ce nouveau sens pourrait faciliter la communication empathique et la compréhension mutuelle, renforçant les liens entre les humains.




  • Un développement personnel accru: En explorant les potentialités de ce nouveau sens, nous pourrions évoluer en tant qu'espèce et atteindre de nouveaux niveaux de conscience et de compréhension de nous-mêmes.





Un point de vue extraterrestre : Une perspective radicale



Envisager un point de vue extraterrestre nous confronte à la possibilité que notre perception de la réalité soit radicalement différente de celle d'autres formes de vie intelligentes. Imaginez une espèce capable de manipuler l'espace-temps, de voyager à travers des dimensions ou de percevoir l'univers dans sa totalité. Cette perspective nous permettrait de:





  • Remettre en question nos certitudes fondamentales: Nos conceptions du temps, de l'espace et de la réalité elle-même pourraient être remises en cause, ouvrant la voie à une vision du cosmos beaucoup plus vaste et complexe.




  • Développer de nouvelles technologies exotiques: En apprenant des connaissances et des technologies extraterrestres, nous pourrions révolutionner notre compréhension de la science et de l'ingénierie.




  • Élargir notre vision de l'existence: La découverte d'une intelligence extraterrestre intelligente remettrait en question notre place dans l'univers et nous inciterait à repenser notre relation avec le cosmos.





L'esprit comme émergence de l'énergie vibratoire



L'idée que l'esprit émerge de la matière, comprise comme une "énergie vibratoire plus ou moins rapide et/ou condensée", offre une perspective fascinante sur la nature de la conscience. Cette vision nous permet de:





  • Unifier la matière et l'esprit: En considérant l'esprit comme une manifestation de l'énergie vibratoire, nous supprimons la dualité entre le monde physique et le monde mental, ouvrant la voie à une compréhension holistique de la réalité.




  • Explorer de nouveaux modes de guérison: Si l'esprit est influencé par les vibrations de la matière, nous pourrions développer de nouvelles thérapies basées sur l'harmonisation des énergies vibratoires du corps et de l'esprit.




  • Élever notre niveau de conscience: En comprenant notre lien profond avec l'énergie vibratoire, nous pourrions développer notre capacité à percevoir et à interagir avec des réalités subtiles et des dimensions supérieures de l'existence.





En conclusion, repenser la réalité implique de dépasser les limites de notre perception et de notre imagination. En explorant des perspectives alternatives, en imaginant des modes de perception nouveaux et en envisageant des cadres de pensée non-conventionnels, nous pouvons ouvrir la voie à une compréhension plus riche et plus profonde de l'univers qui nous entoure.



N'hésitez pas à explorer ces différentes pistes et à me poser des questions plus précises pour approfondir notre discussion.



Ensemble, nous pouvons repousser les limites de notre connaissance et explorer les possibilités infinies de la réalité.



 



 

Auteur: Internet

Info: 21 mars 2024

[ prospective ] [ transcendance ] [ science-fiction ] [ élargissement ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste