Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 129
Temps de recherche: 0.0615s

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Quand l'ordinateur façonne sa propre compréhension du monde
Des ordinateurs capables de regrouper, à partir d'une seule photo de vous, toutes les informations que contient votre empreinte numérique... Des machines aptes à auto générer des résumés à partir de textes complexes, ou encore en mesure de détecter un problème de santé à partir de l'imagerie médicale sans l'aide d'un médecin...
Le mariage des deux sciences que sont l'intelligence artificielle et le traitement des métadonnées est consommé. Et, si leur progéniture technologique est déjà parmi nous sous différentes formes, on prévoit que leurs futurs rejetons révolutionneront encore bien davantage notre quotidien.
C'est ce que prédit notamment Yoshua Bengio, professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal et directeur de l'Institut des algorithmes d'apprentissage de Montréal. Cet organisme compte près de 70 chercheurs, ce qui en fait le plus grand groupe de recherche en apprentissage profond (deep learning) du monde dont les activités sont concentrées en un seul endroit.
Les conséquences des avancées scientifiques actuelles et à venir sont encore difficiles à imaginer, mais l'explosion du volume de données numériques à traiter pose tout un défi : selon une estimation d'IBM, les échanges de données sur Internet devraient dépasser le zettaoctet, soit un milliard de fois la capacité annuelle d'un disque domestique...
Comment l'intelligence artificielle - IA pour les intimes - permettra-t-elle de traiter ces informations et de les utiliser à bon escient ?
Avant de répondre à la question, clarifions d'abord ce qu'on entend par "intelligence". Le célèbre psychologue suisse Jean Piaget en avait résumé une définition très imagée : "L'intelligence n'est pas ce qu'on sait, mais ce qu'on fait quand on ne sait pas." Plusieurs décennies plus tard, Yoshua Bengio applique cette définition à l'intelligence artificielle.
Apprentissage profond
Inspiré par les théories connexionnistes, Yoshua Bengio ainsi que les chercheurs Geoffrey Hinton et Yann LeCun ont donné naissance, il y a 10 ans, aux algorithmes d'apprentissage profond. Il s'agit de réseaux de neurones artificiels dont le nombre de couches plus élevé permet de représenter des concepts plus abstraits et donc d'apprendre mieux. Chaque couche se construit sur la précédente et combine les concepts plus simples captés à la couche précédente.
Par exemple, au cours des dernières années, différents chercheurs ont tenté d'améliorer la capacité de l'ordinateur à traiter le langage naturel, selon le concept de représentation distribuée : on associe chaque mot à une représentation, puis on utilise les neurones pour obtenir la probabilité du prochain mot.
"On crée de la sorte des relations sémantiques, explique M. Bengio. Si l'on dit "chien" dans une phrase, il est fort possible que cette phrase demeure correcte même si l'on remplace "chien" par "chat", puisque ces mots partagent de nombreux attributs sémantiques : l'ordinateur découvre des attributs communs et, par une forme de déduction, il devient capable d'opérer des transformations successives qui permettent par exemple à l'ordinateur de traduire d'une langue vers une autre."
De sorte que, là où il fallait auparavant plusieurs êtres humains pour montrer à l'ordinateur comment acquérir des connaissances, celui-ci est de plus en plus apte à façonner lui-même sa propre compréhension du monde. C'est là le propre de l'apprentissage profond.
Quelques applications actuelles
Combinée avec les avancées en recherche opérationnelle et les métadonnées, l'intelligence artificielle est déjà présente dans notre vie sous diverses formes. Il n'y a qu'à penser à la façon dont on peut désormais interagir verbalement avec son téléphone portable pour lui faire accomplir une tâche, comme lui demander d'avertir notre conjoint qu'on sera en retard, lui faire ajouter un rendez-vous à notre agenda ou, encore, lui demander de nous suggérer un restaurant italien à proximité de l'endroit où l'on se trouve... Il peut même vous indiquer qu'il est temps de partir pour l'aéroport en raison de la circulation automobile difficile du moment pour peu que vous lui ayez indiqué l'heure de votre vol !
"Ce n'est pas encore une conversation soutenue avec l'ordinateur, mais c'est un début et les recherches se poursuivent", indique de son côté Guy Lapalme, professeur et chercheur au laboratoire de Recherche appliquée en linguistique informatique de l'UdeM, spécialisé entre autres en génération interactive du langage et en outils d'aide à la traduction.
Et maintenant la recherche porte sur la combinaison langage et image. "Après un entraînement au cours duquel l'ordinateur a appris en visionnant plus de 80 000 photos associées chacune à cinq phrases descriptives, il est à présent en mesure de mettre lui-même par écrit ce que l'image évoque; il y a deux ans à peine, je n'aurais pas cru qu'il était possible d'en arriver là", mentionne M. Bengio, qui collabore régulièrement avec le Massachusetts Institute of Technology, Facebook ou Google.
"Nous avons fait de grands progrès récemment, mais nous sommes loin, très loin, de reproduire l'intelligence humaine, rassure l'éminent chercheur. Je dirais que nous avons peut-être atteint le degré d'intelligence d'une grenouille ou d'un insecte, et encore, avec plusieurs imperfections..."

Auteur: Internet

Info: 9 oct. 2015

[ Internet ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

technologie

Comment Internet modifie le cerveau
L'écran aspire-t-il notre cerveau ?
À force de passer des milliers d'heures à naviguer sur Internet, Nicholas Carr en est arrivé à une conclusion : Internet modifie l'esprit. Dans son dernier livre, Internet rend-il bête ?*, le journaliste et écrivain américain constate, comme de nombreux " travailleurs de l'écran ", qu'il a de plus en plus de mal à se concentrer sur une tâche complexe, ou même à ne faire qu'une seule chose à la fois. La vie en mode zapping fait des dégâts. " J'ai le sentiment désagréable que quelqu'un, ou quelque chose, bricole avec mon cerveau ", explique-t-il. Amoureux du Net, l'auteur a d'autant plus de difficultés à en dire du mal : Internet " est un si bon serviteur qu'il serait déplacé de remarquer qu'il est aussi notre maître ", s'amuse-t-il.
Ce qui importe, selon Nicholas Carr, ce n'est pas tant le contenu diffusé par les médias que la façon de les diffuser. " Les médias opèrent leur magie, ou leurs méfaits, sur le système nerveux lui-même ", explique-t-il. Notre cerveau est enfermé dans la boîte crânienne, ce qui nous laisse penser - à tort - qu'il serait insensible aux événements extérieurs ; qu'il les capterait et les analyserait sans en subir les influences. Mais " le cerveau est et sera toujours un chantier en cours ", rappelle l'auteur.
L'esprit devient affamé
Reprenant la thèse selon laquelle l'activité du cerveau le modèle et le façonne en permanence, comme l'eau qui coule dans le sable crée des chemins qu'elle empruntera toujours par la suite, Nicholas Carr tire la sonnette d'alarme. Les " médias électriques " ont changé notre façon de percevoir le monde. Radio, télévision, Internet : tous nous crient l'urgence de les consulter, au contraire des journaux papier et des " livres poussiéreux " d'antan, qui nous chuchotaient qu'on avait tout le temps pour les consulter au calme.
Résultat : "Le plongeur qui, naguère, explorait l'océan des mots, en rase maintenant la surface à la vitesse de l'éclair." Dans un clin d'oeil à Descartes, Nicholas Carr affirme même que " nous devenons ce que nous pensons ". L'effet est pire sur les jeunes, qui sont nés avec Internet. Selon une étude citée dans l'ouvrage, certains enfants trop habitués aux pages web ne sauraient plus vraiment lire une page de haut en bas et de gauche à droite. L'addiction est aussi présente : " Mon esprit n'était pas seulement à la dérive, il avait faim. Il demandait à être alimenté comme le Net le nourrit - et plus il était nourri, plus il avait faim. " La " surcharge cognitive " est telle que la capacité à réfléchir est menacée.
Nouvelle ère
Un constat alarmant ? Pas forcément. Nicholas Carr entrevoit une nouvelle ère pour la pensée, qui nous sortirait définitivement des Lumières et du rationalisme. En jeu, de nouveaux mécanismes cognitifs, dont on ne sait pas encore s'ils sont meilleurs ou moins bons que ceux que nous avions tous il y a encore vingt ans.
L'habitude du zapping, par exemple, permet de traiter plusieurs tâches à la fois de façon plus efficace, mais réduit la capacité à résoudre des problèmes complexes, et à mémoriser des souvenirs. Autre exemple : la généralisation du guidage GPS atrophie la partie du cerveau chargée de l'orientation dans l'espace, mais libère du temps et des neurones pour d'autres activités. Pour le moment, nous savons simplement que nous avons " sacrifié des parties de notre cerveau " au profit d'autres apports, que nous commençons tout juste à entrevoir. Reste à savoir si nous serons perdants. Le bilan semble négatif aujourd'hui, mais Carr veut être optimiste : peut-être l'homme apprendra-t-il bientôt a tirer profit de sa nouvelle capacité à ne jamais se concentrer...
Commentaire : Euh... pardon? Sa "nouvelle capacité"?
Demain, tous transformés
Ceux qui passent des heures sur leur écran et qui, le soir venu, se demandent ce qu'ils ont fait de leur journée, se reconnaîtront bien dans le livre de Nicholas Carr. Certains passages les feront sourire, notamment le récit de sa tentative de désintoxication durant la rédaction du livre. " Le démantèlement de ma vie en ligne ne s'est pas fait sans douleur [...] De temps en temps, je m'offrais une journée entière d'orgie sur le Net ", raconte-t-il.
Seul regret, la traduction depuis l'anglais du vocabulaire technique n'est pas toujours parfaite. Par exemple, le sigle ISP, qui signifie " Internet Service Provider ", c'est-à-dire fournisseur d'accès à Internet, n'est ni expliqué ni traduit. L'abonnement (account) qui va avec est traduit par " compte ". Quelques lignes plus loin, c'est la connexion broadband (haut-débit) qui est traduite par " large bande ". Mais ces petits détails ne sont pas gênants pour la compréhension. Internet rend-il bête ? n'en est pas moins un ouvrage ambitieux, qui essaie de cerner les évolutions du cerveau et de la pensée à l'ère numérique, et de nous préparer à ce qui nous attend dans le monde encore plus connecté de demain. Un livre à recommander à tous les forçats du Web !

Auteur: Internet

Info: Science de l'Esprit, Le Point 10 novembre 2011

[ sociologie ] [ lecture ]

 

Commentaires: 0

ascendant partagé

Comment des erreurs de " copier-coller " ont façonné les humains et le monde animal

 7.000 groupes de gènes nous relient à l'ancêtre commun de tous les vertébrés et les invertébrés. C'est grâce à de nombreuses erreurs au fil de l'Evolution que l'humain et les animaux sont devenus ce qu'ils sont.

(Photo : Les pieuvres ont acquis leur capacité à changer de couleur grâce à une erreur dans l'ADN - ici à l'aquarium du Croisic.)

C’est une petite créature marine qui se déplace au sol, tout au fond des fonds marins. Cet animal, tout simple, possède un système nerveux, des muscles, des organes reproductifs, un système digestif et excréteur simples. On sait qu’il a un avant et un arrière, un côté droit et un côté gauche. Rien de bien excitant, et pourtant. Cette petite créature, qui vivait il y a 600 millions d’années, est l’ancêtre commun de tous les vertébrés (les poissons, les reptiles, les oiseaux, les mammifères et donc l’Homme) et les invertébrés (les insectes, les mollusques, les vers et bien d’autres).

A quel point sommes-nous encore reliés à notre ancêtre commun ?

C’est la première fois, dans l’histoire de la vie, qu’un organisme vivant possédait ce type d’organisation basique (devant, derrière, deux côtés), qui allait mener au développement complexe de nombreux animaux, dont les humains.

(* photos : L'empreinte du plus ancien bilatérien retrouvé en Australie. Chaque barre représente 1 mm.)

Mais à quel point sommes-nous encore génétiquement reliés à cet ancêtre commun ? En analysant l’ADN de 20 animaux bilatériens (avec une gauche et une droite), une équipe du Centre for Genomic Regulation (CRG) de Barcelone (Espagne) a pu remonter la trace de plus de 7.000 groupes de gènes qui nous rattachent à cette petite créature du fond des mers.

"Quand on peut identifier le même gène dans de nombreuses espèces bilatériennes, on peut être à peu près sûrs que ce gène a été identifié chez leur dernier ancêtre commun. C’est pour cela que nous nous sommes intéressés à des espèces les plus différentes possibles. Des vertébrés - comme les humains, les souris ou les requins - aux insectes, comme les abeilles, les cafards ou les éphémères, et même des espèces distantes comme les oursins ou les pieuvres", expliquent les chercheurs.

Seule la moitié des gènes est restée telle quelle depuis 600 millions d’années

Mais seule la moitié des gènes est restée telle quelle depuis 600 millions d’années. L’autre moitié a été légèrement modifiée au cours de l’Evolution, avec l’apparition de quelques erreurs de réplication de l’ADN, révèle leur étude dans Nature Ecology & Evolution.

Spontanément, une copie supplémentaire d'un gène est apparue dans le génome. Les animaux ont alors pu garder une copie du gène pour leurs fonctions fondamentales tout en utilisant la deuxième copie pour se créer de nouvelles spécificités. C’est ainsi que ces 3.500 groupes de gènes ont complètement changé d’utilité et ont été utilisés dans certaines parties du corps et du cerveau des animaux. Une façon de faire survenir des " innovations " dans le développement des espèces.

" Certains gènes ont entraîné la perception de stimuli légers sur la peau des pieuvres, ce qui a pu contribuer à leur capacité à changer de couleur, à se camoufler et à communiquer avec d’autres pieuvres ", explique le Pr Manuel Irimia, spécialisé en biologie évolutive au Centre for Genomic Regulation. Chez les insectes, certains gènes se sont spécialisés dans les muscles et dans la formation de l’épiderme, leur permettant de voler.

Chez l'humain aussi, les apports de ces erreurs de " copier-coller " ont été cruciales. " Certaines ont eu un impact sur le cerveau. C’est grâce à elles que les oligodendrocytes, des cellules cérébrales, créent la gaine de myéline qui entoure et protège nos neurones. Chez nous mais aussi chez tous les vertébrés ", ajoute le professeur. D’autres gènes, comme FGF17, maintiennent nos fonctions cognitives du cerveau même lorsque l’âge avance.

Nos gènes sont un peu comme un grand livre de recettes. En les changeant légèrement, on peut créer de nombreux tissus ou organes différents. Imaginez que par accident, on y retrouve deux recettes de paella identiques. On peut alors réaliser la recette originale de paella tandis que l’Evolution se chargera de modifier légèrement la deuxième pour créer la recette du risotto. Imaginez maintenant que tout le livre ait été entièrement copié. Les possibilités d’évoluer sont infinies. Ces petits changements, survenus il y a des millions d’années, se trouvent encore sur les animaux d’aujourd’hui ", sourit Federica Mantica, autrice de l’article et chercheuse au Center for Genomic Regulation de Barcelone.

Jeter un œil à cet immense arbre phylogénique, c’est regarder l’histoire de l’Homme, voire même l’histoire de la vie. " Ces copies supplémentaires se sont spécialisées dans un tissu en particulier plusieurs fois au cours de l’Evolution humaine. En fait, les humains ont été façonnés par ces événements ayant eu lieu il y a des millions d’années, lorsque nos ancêtres ressemblaient vaguement à des poissons, ce qui a créé tout le matériel génétique exploité jusqu’à aujourd’hui encore. "

Si notre ancêtre du fond des mers peut sembler extrêmement basique, c'est bien grâce à son matériel génétique que le règne animal a pu devenir aussi complexe qu'il est aujourd'hui.

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Coralie Lemke, 15 avril 2024

[ aïeul général ] [ Pikaia gracilens ? ] [ adaptation ] [ épigenèse ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intrications

Les scientifiques qui étudient le cerveau ont découvert que cet organe opère simultanément jusqu'à 11 dimensions différentes, créant des structures multivers qui présentent "un monde que nous n'avions jamais imaginé".

En utilisant un système mathématique avancé, les chercheurs ont pu montrer des structures architecturales qui apparaissent lorsque le cerveau doit traiter l'information, avant de se désintégrer et disparaitre. Leurs résultats, publiés dans la revue Frontiers in Computational Neuroscience, révèlent les processus extrêmement complexes impliqués dans la création de structures neuronales, ce qui pourrait aider à expliquer pourquoi le cerveau est si difficile à comprendre et à associer sa structure à sa fonction.

L'équipe, dirigée par des scientifiques de l'EPFL en Suisse, effectuait des recherches dans le cadre du projet Blue Brain, une initiative visant à créer une reconstruction biologiquement détaillée du cerveau humain. En travaillant d'abord sur les cerveaux des rongeurs, l'équipe a utilisé des simulations de supercalculateurs pour étudier les interactions complexes dans différentes de ses régions. Dans cette dernière étude, les chercheurs ont pu approfondir les structures du réseau neuronal du cerveau en utilisant la topologie algébrique - un système utilisé pour décrire des réseaux avec des espaces et des structures en constante évolution.

C'est la première fois que cette branche des mathématiques est appliquée aux neurosciences. "La topologie algébrique est comme un télescope et un microscope en même temps. Elle peut zoomer dans les réseaux pour trouver des structures cachées - les arbres dans la forêt - et voir les espaces vides - les clairières - tout en même temps", précise Kathryn Hess. Dans l'étude, les chercheurs ont effectué de multiples tests sur le tissu cérébral virtuel pour découvrir des structures cérébrales qui n'apparaitraient jamais par hasard. Ils ont ensuite effectué les mêmes expériences sur des tissus cérébraux réels afin de confirmer leurs résultats virtuels. Ils ont découvert que lorsqu'on présente un stimulus au tissu virtuel, des groupes de neurones forment une clique. Chaque neurone se connecte à tous les autres neurones de manière très spécifique pour produire un objet géométrique précis. Plus il y a de neurones dans une clique, plus les dimensions sont élevées. Dans certains cas, les chercheurs ont découvert des cliques avec jusqu'à 11 dimensions différentes.

Les structures s'assemblent en des enceintes qui forment des trous à haute dimension que l'équipe a nommé cavités. Une fois que le cerveau a traité l'information, la clique et la cavité disparaissent.

Multivers du cerveau. "L'apparition de ces cavités high-dimensionnelles lorsque le cerveau traite des informations signifie que les neurones du réseau réagissent aux stimuli d'une manière extrêmement organisée", a déclaré l'un des chercheurs, Ran Levi. "C'est comme si le cerveau réagit à un stimulus en construisant puis en rasant une tour de blocs multidimensionnels, en commençant par des tiges (1D), des planches (2D), puis des cubes (3D), puis des géométries plus complexes avec 4D, 5D, etc. La progression de l'activité à travers le cerveau ressemble à un château de sable multidimensionnel qui se matérialise hors du sable puis se désintègre ", a-t-il déclaré. Henry Markram, directeur de Blue Brain Project, avance que les résultats pourraient aider à expliquer pourquoi le cerveau est si difficile à comprendre. "Les mathématiques appliquées habituellement aux réseaux d'étude ne peuvent pas détecter les structures et les espaces à grande dimension que nous voyons maintenant clairement", a-t-il déclaré. "Nous avons découvert un monde que nous n'avions jamais imaginé. Il y a des dizaines de millions de ces objets, même dans un petit segment du cerveau, à travers sept dimensions. Dans certains réseaux, nous avons même trouvé des structures allant jusqu'à onze dimensions". Les résultats indiquent que le cerveau traite les stimuli en créant ces cliques et cavités complexes, de sorte que la prochaine étape sera de savoir si notre capacité à effectuer des tâches compliquées nécessite ou non la création de ces structures multidimensionnelles.

Dans une interview par courrier électronique avec Newsweek, Hess dit que la découverte nous rapproche de la compréhension d' "un des mystères fondamentaux de la neuroscience: le lien entre la structure du cerveau et la façon dont elle traite l'information". En utilisant la topologie algébrique l'équipe a pu découvrir "la structure hautement organisée cachée dans les modèles de tir apparemment chaotiques des neurones, une structure qui était invisible jusqu'à ce que nous l'examinions avec ce filtre mathématique particulier". Hess dit que les résultats suggèrent que lorsque nous examinons l'activité du cerveau avec des représentations à faible dimension, nous n'observons que l'activité réelle qui se déroule. Cela signifie que nous pouvons voir des informations, mais pas l'image complète. "Alors, dans un sens, nos découvertes peuvent expliquer pourquoi il a été si difficile de comprendre la relation entre la structure et la fonction du cerveau", explique-t-elle.  

"Le schéma de réponse stéréotypique que nous avons découvert indique que le circuit répond toujours aux stimuli en construisant une séquence de représentations géométriques commençant dans des dimensions faibles et en ajoutant des dimensions progressivement plus élevées, jusqu'à ce que l'accumulation s'arrête soudainement et s'effondre: une signature mathématique pour les réactions à stimuli. "Pour le travail futur, nous avons l'intention d'étudier le rôle de la plasticité - le renforcement et l'affaiblissement des connexions en réponse aux stimuli - avec les outils de topologie algébrique. La plasticité est fondamentale pour le processus mystérieux d'apprentissage, et nous espérons que nous pourrons donner un nouvel aperçu de ce phénomène", a-t-elle ajouté.

Auteur: Internet

Info: https://www.newsweek.com/brain-structure-hidden-architecture-multiverse-dimensions-how-brain-works-6243006/12/17 by Hannah Osborne - Ici FLP regrette sa volonté réitérée de ne pas insérer d'images dans les textes. Elles sont ici très parlantes.

[ simultanéïté ] [ réfléchir ] [ réflexion humaine modélisée ]

 

Commentaires: 0

désillusion

La neurobiologie de la déception: la douleur qui dure le plus longtemps  

La déception a un impact douloureux sur notre cerveau. Ce fait s'explique par l'activité des neurotransmetteurs, comme le GABA, qui subissent une altération très spécifique que la science peut désormais expliquer.

La neurobiologie de la déception nous montre une fois de plus qu’il y a des aspects de notre vie que le cerveau vit de façon particulièrement douloureuse. Ainsi, pour une raison que nous ne connaissons pas, dans ces expériences où nous perdons des opportunités ou lorsque la confiance avec quelqu’un de significatif est rompue, une sorte de souffrance est générée qui dure plus longtemps.

William Shakespeare a dit que l’attente est la racine de toute détresse, et c’est peut-être vrai. Mais il est également vrai que nous avons souvent besoin de nous accrocher à certaines choses pour trouver la stabilité. Afin de ne pas perdre courage face à toutes les incertitudes de la vie. Ainsi, nous tenons souvent pour acquis que nos plus proches parents, partenaires ou amis ne nous trahiront pas d’une manière ou d’une autre.

Nous entretenons également des attentes à notre égard, en tenant pour acquis que nous n’échouerons pas dans les domaines où nous sommes si bons. Ou encore que ce que nous avons aujourd’hui restera avec nous demain. Cependant, parfois le destin donne un changement de direction et notre château de cartes s’écroule. Ces expériences, définies essentiellement par une perte de sécurité, sont interprétées au niveau du cerveau comme des signaux d’alarme pour notre survie.

La disparition d’une opportunité qui était si excitante pour nous, être licenciés du jour au lendemain, subir une trahison émotionnelle... Voilà des événements plus que douloureux. Ils sont, d’une certaine façon, des coups portés au tissu de ce qui faisait partie de nous de façon significative. Voyons donc ce qui se passe au niveau du cerveau lorsque nous vivons ces expériences.

La neurobiologie de la déception répond à un intérêt récent dans le domaine des neurosciences. Depuis de nombreuses années, les psychologues, les psychiatres et les neurologues se demandent pas seulement pourquoi cette émotion est vécue si intensément. Une chose qui est claire, c’est que les déceptions font aussi partie de notre personnalité.

Ceux qui les ont vécues deviennent souvent plus méfiants. Les déceptions nuisent à la recherche d’espoir et nous rendent parfois plus prudents lorsqu’il s’agit de susciter des attentes impliquant les gens. Quoi qu’il en soit, il faut qu’il se passe quelque chose au niveau du cerveau pour que son impact soit aussi évident. Découvrons ensemble ce que la science nous dit à ce sujet.

Les neurotransmetteurs et la déception. Comme nous le savons, les neurotransmetteurs sont des produits chimiques qui transmettent des signaux aux neurones. Grâce à cette neurochimie, les émotions, les comportements, les pensées, etc. sont facilités. Ainsi, il est utile de rappeler qu’il existe des neurotransmetteurs très spécifiques, comme la dopamine et la sérotonine. Ils mesurent complètement notre état d’esprit.

Or, dans une étude intéressante réalisée par le Dr Roberto Malinow, du département de neurobiologie de l’Université de Californie, à San Diego, les chercheurs ont révélé qu’il existe deux neurotransmetteurs très spécifiques qui régulent complètement l’expérience de la déception. Il s’agit du glutamate et du GABA, qui agissent dans une zone très spécifique de notre cerveau : l’habénula latérale.

L’habénula et la libération de GABA et de glutamate. L’habénula latérale est l’une des plus anciennes structures de notre cerveau. Nous savons donc, par exemple, qu’elle fait partie des processus émotionnels qui facilitent notre prise de décision. Cependant, malgré le fait qu’elle agisse souvent de manière positive, en stimulant la motivation, cette région a aussi son côté sombre.

Son bon fonctionnement dépend essentiellement d’une libération correcte et équilibrée de glutamate et de GABA. Ainsi, plus l’apport de ces neurotransmetteurs dans l’habénula est important, plus le sentiment de déception est grand. En revanche, plus la libération de GABA et de glutamate est faible, moins cette émotion a d’impact sur notre cerveau.

Le Dr Roberto Malinowski, cité ci-dessus, fait une remarque importante sur la neurobiologie de la déception. On a vu que l’impact de la déception maintenue dans le temps conduit dans de nombreux cas à des troubles dépressifs. C’est-à-dire que lorsque la libération de GABA et de glutamate est intense, il y a un plus grand risque de souffrir de ce trouble psychologique.

On sait aussi que cette excitation de l’habénula due à la libération excessive de ces neurotransmetteurs, nous rend plus obsédés par certaines idées, souvenirs ou situations douloureuses vécues. Il nous est très difficile de tourner la page, d’où la stagnation émotionnelle et la souffrance.

Cependant, la découverte de la relation entre le glutamate et le GABA dans la déception et la dépression ouvre également la porte à de nouveaux traitements. Jusqu’à présent, on supposait que grâce aux antidépresseurs et à la régulation de la sérotonine, le rapport GABA-glutamate était également équilibré. Aujourd’hui, cependant, il est devenu évident que malgré l’amélioration, il est courant de ressentir divers effets secondaires.

Le défi actuel est donc de développer des traitements qui agissent spécifiquement sur certains neurotransmetteurs et non sur d’autres. De cette façon, des réponses plus appropriées seraient données aux patients qui, en raison de diverses altérations au niveau neurochimique, vivent plus intensément certaines réalités. La neurobiologie de la déception est donc un domaine de grand intérêt dont nous améliorons progressivement la compréhension. 

Auteur: Internet

Info: https://nospensees.fr, 01 juin, 2020

[ déconvenue ] [ insuccès ] [ désenchantement ] [ désabusement ] [ désappointement déclic ]

 

Commentaires: 0

Ajouté à la BD par miguel

illusionnisme

Le monde de la psychologie appliquée est un univers particulier qui se compose d’une multitude de techniques partagées avec le monde du mentalisme et ne forme avec lui en fait, qu’une seule et même entité. Un mentaliste est donc quelqu'un qui a exploré la psychologie assez profondément pour en extraire les techniques utiles, stratégies d’interaction choisies et appliquées avec soin et dans un but précis.

Nous vous déclinons ici 4 techniques de mentalisme très utiles dans un contexte conversationnel.

1) Le Yes set (théorie de l’engagement)

C'est un des piliers de l’influence, issu de la vue systémique de la persuasion développée par  Robert B. Cialdini dans les années 1980. Il est facilement vérifiable et très intuitive, stipule que le fait d’habituer les gens à effectuer une série d’actions les rend beaucoup plus susceptibles d’en effectuer par la suite. Cette idée "d’habituer" les gens prend ses sources directement dans le principe du conditionnement, que nous verrons plus en détail dans un prochain point. Cialdini explique calmement que l’engagement va de pair avec le principe de la cohérence psychologique, qui dit (en gros) que "puisque j’ai fait ceci, je devrais faire cela". Le cerveau cherchant constamment à rationaliser le monde pour mieux le comprendre, il a horreur de l’incohérence. D’où son classement en tant que technique de mentalisme de haut niveau.

2) L’Ancrage émotionnel

Un des effets stupéfiant du monde de la psychologie après l’effet miroir. Cette technique de mentalisme exploitée instinctivement par l’homme depuis des siècles. Mais il aura fallu attendre Ivan Pavlov, précurseur du comportementalisme, pour modéliser le processus de conditionnement au grand jour. En gros : Vous donnez des bonnes croquettes à votre chien, vous agitez une clochette, le chien mange les croquettes. Vous faites ça pendant une semaine, plusieurs fois par jour. A chaque fois que le chien mange, il entend le son des clochettes. Au bout d’une semaine, vous agitez les clochettes mais ne servez plus à manger… Et le chien salive. Vous recommencez des jours plus tard, le chien salive toujours. Que s’est-il passé ? Le chien a associé le son des clochettes à la nourriture et au démarrage de sa digestion. Il a été conditionné à saliver et à penser à sa nourriture au son des clochettes. Et bien sûr ça marche aussi pour les humains. 

Le processus d’ancrage a été largement amélioré et repris dans des domaines aussi divers que la publicité, l’humour, le storytelling, la thérapie, et est à la base du fonctionnement de l’hypnose. Parce que oui, l’ancrage fonctionne AUSSI avec les émotion et est bien sûr très exploité comme technique de mentalisme. 

En combinant  les domaines ci-dessus on "fabrique" la technique en piochant un peu partout et en l’adaptant à la situation. Il faut donc créer une atmosphère agréable et renforcer un lien émotionnel en utilisant la technique de l’ancrage émotionnel ?

3) Hypnose conversationnelle et suggestion d’idées

Nous sommes ici dans l’antichambre de la magie : cette technique de mentalisme, consiste ni plus ni moins en une maîtrise millimétrée du langage et des mots. Et ce contrôle, cette absolue suprématie sur l’histoire que votre cerveau articule, peut donner naissance à des résultats tout-à-fait remarquables. Les objectifs de l’hypnose conversationnelle sont principalement les deux suivants : 

- Éveiller des émotions chez votre interlocuteur en adoptant une forme colorée et percutante de discours

- Communiquer des suggestions d’idées en utilisant les mécanismes des sous-entendus.

Si ces buts conversationnels sont les mêmes que ceux définis dans l’hypnose thérapeutique, leur articulation est différente. On préférera une communication plus fine, car dans l’hypnose conversationnelle, l’environnement est rarement dévoilé (difficile d’être persuasif si on annonce d’emblée qu’on va être persuasif).

Au sein même de l’hypnose conversationnelle, deux techniques de mentalisme sont très souvent exploitées :

- La métaphore sous toutes ses formes (il y a plusieurs niveaux de complexité), qui permet de se projeter dans un cadre extérieur pour être libre de jouer avec les idées souhaitées (on appellera ce travail une communication "indirecte")

- La suggestion directe camouflée, qui permet d'instiguer des évocations agissantes dans le discours avec une dextérité très complexe à maîtriser. L’intonation des mots, la maîtrise des ancrages émotionnels et l’imagination y sont pour beaucoup.

4) La Synchronisation (ou l’effet miroir)

Le mystère et les incroyables résultats associés à l’effet miroir font partie des causes de la nécessité absolue de communiquer les techniques de mentalisme publiquement. L’effet miroir est le sujet d’innombrables recherches de psychologie sociale depuis au moins un demi-siècle. Comment ça marche ? C’est simple. En effet : si vous ressentez une connexion émotionnelle forte avec les gens qui vous ressemblent et qui s’impliquent aussi dans votre relation, c’est parce que vous fonctionnez souvent en "synchronisation" :

Vous pensez souvent aux mêmes choses et aux mêmes moments. Vous utilisez le même langage pour communiquer, les mêmes expressions, parfois le même ton, et les mêmes gestuelles. Vous prenez ou partagez choix et opinions similaires. Vous riez souvent de concert, il vous est plus facile de partager les émotions de l’autre (empathie affective). Etc.

Voilà donc l’effet "miroir", en référence à l’activation des fameux neurones éponymes de nos cerveaux. Essayez de remarquer les mécanismes de synchronisation/désynchronisation entre deux (ou plusieurs, mais c’est plus avancé) personnes autour de vous. Qui se synchronise sur qui ? Essayez de remarquer les conséquences de ces synchros/désynchros sur la qualité de la conversation et sur l’influence des participants… Gare aux surprises. 

Où cela mène-t-il de connaitre ou apprendre plus de techniques de mentalisme ?

Comprendre et développer l’univers de la psychologie appliquée, composée d’une multitude de techniques de mentalisme, vous permettra de les repérer et vous en protéger si elles sont utilisées avec de mauvaises intentions. Cela vous permettra aussi de savoir les utiliser et les améliorer, ce qui peut arriver si vous souhaitez renforcer un lien émotionnel, dynamiser un groupe, ou tout autre objectif.

Auteur: Internet

Info: https://humanize-project.com/atmosphere/4-techniques-mentalisme/

[ manipulation ] [ comédie ] [ rapports humains ] [ pnl ] [ programmation neurolinguistique ] [ effet Barnum ]

 
Commentaires: 8
Ajouté à la BD par miguel

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel