Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 93
Temps de recherche: 0.0741s

question

J'ai la faiblesse de croire que les langages, codages parlés, écrits, enregistrés, analysés, précisés, etc... sont, si biens gérés, des moyens aux possibilités quasi illimitées. La science-fiction en est un exemple.

Il est une interrogation qui se précise avec le temps dans mes méninges, énigme que je voudrais éclaircir un peu.

Le langage écrit humain produit cette sorte de miracle qui permet de communiquer d'esprit à esprit avec tous les hommes, où et quand qu'ils soient situés dans le passé ou le présent. 

On y voit certes de suite une limitation anthropocentrée ; pas de littérature des dauphins ou des fourmis à ma connaissance.  

Ca c'est pour la planète. Mais voyons plus loin.

Il y aurait-t'il un bornage sémantique (ou d'un autre ordre ?) qui "empêche" que nous puissions bénéficier d'une littérature extraterrestre, récits d'une autre dimension, ou autre. Parce que les quelques machins sur lesquels j'ai pu poser la pupille annonçant une telle origine m'ont toujours paru bien peu convainquants.

Posée ainsi cette problématique indique soit qu'il n'existe pas d'autre espèce dans notre genre (avec langage écrit externe traduisible vers nos idiomes) ce qui m'étonnerai fort. Soit que conceptuellement nos langages et leurs traductions des uns vers les autres ne sont pas adaptés pour accueillir des "témoignages littéraires" d'une autre planète-espèce-dimension, voire même d'une civilisation de plus grande ampleur. Ce qui m'étonnerait aussi.

Partons de l'idée que de telles espèces-civilisations sont à un niveau de développement insuffisamment développé pour se rencontrer.

Soit. Mais quid des autres civilisation avancées ? Ils doit bien y avoir parmi elles de petits plaisantins, tricksters locaux, pour s'essayer à franchir ce genre de lignes. Un étudiant qui consacrerait l'équivalent d'un doctorat avec une thématique du genre : "l'interactions sémiotiques entre races à sang chaud de type mammifère de niveau D." 

Rien de pareil à se mettre sous la dent à ma connaissance.

Limitation personnelle ? Déficit d'information ?

Certains initiés nous parlent de niveaux vibratoires "étanches", voire de mondes consensuels incompatibles. La civilisation humaine serait donc "isolée" de par ses  propres conceptualisations qui, partagées via le langage, seraient à l'origine d'un monde "syntonisé" admis par le grand nombre des humains et donc inaccessible à un monde-univers mental de source exotique. Les idées-langages partagées, issues de nos incarnations de bipèdes dépoilés, verrouilleraient en quelque sorte notre horizon. 

La réponse à cette question ne montrera le bout de son nez que par une vraie rencontre. Celle avec une civilisation d'un autre ordre, exogène, et probablement plus avancée. Qui fera elle un effort en ce sens.

Certains prétendent que de telles rencontres sont déjà en cours...  Et vous ?

Auteur: Mg

Info: 2 août 2020

[ communication ] [ xénolinguistique ] [ question ] [ réalité consensuelle ] [ secondéité médium ]

 
Mis dans la chaine
Commentaires: 1
Ajouté à la BD par miguel

pré-sémantique lexicale

Par comparaison à ce qu'il se fait en TAL(N)*, Plongement lexical (word embedding), Fléau de la dimension, et autres Sélection de caractéristiques par vectorisation... disciplines-processus orientées par ce que nous nommerons "objectivité des statistiques", FLP préfère se situer au sein d'une démarche Homme-Machine. Ici les participants "mettent du leur", même si notre notre étiquetage, avec sa petite hiérarchisation "catégorie-tag", peut être analogisée avec certaines "sélection des caractéristiques" développées dans le TAL afin d'affronter le fléau de la dimension. 

Chez FLP nous nous sentons bien plus proches d'une "chair subjective" de la compréhension du sens des mots, en fonction de paramètres plus "a posteriori" qu'"à priori" - dans l'acception kantienne du terme, c'est à dire que la réflexivité, "issue du vécu" de la personne qui insère une entrée, est à la base du processus. 

Processus homme-machine donc, parce que nous pensons que toutes les méthodologies de mathématisation du langage sont principalement issues de logiques soit de marchandisation, soit de fabrication du consentement... Allez, disons le mot, nous considérons que ce furent, et sont encore, des logiques de pouvoir, comme déjà expliqué dans notre profession de foi. Pouvoirs en général trop éloignés des "lignes de fronts" de nos vie. Nous somme pro-décentralisation.

On trouvera au passage un excellent article qui décortique brillamment et catalogue ce qui existe en Sémantique distributionnelle et en linguistique de corpus en ce début de 3e millénaire. Et donc, par comparaison avec toutes les complexités explicitées dans ce compendium en lien, FLP avance avec quelques "idées simples". Nous n'en conserverons qu'une ici.

Celle que nous sommes semblables aux humains d'antan, ceux qui développèrent les premiers langages-symboles "externes", signes-marques organisés utilisés très majoritairement pour établir des listes. Avec FLP nous faisons à peu près la même chose, à la différence que jusqu'à peu, à une époque on on peut avancer que chaque terme-idée-concept humain est devenu un "quasi-esprit". En effet, les dictionnaires, avec maintenant wikipedia, ne listent que des mots-concepts simples, présentant leur définitions, variantes et autres polysémies. Les fameux mots-mondes, presque esprits, sont isolés.

Alors, allant au-delà des grandes possibilités de désambiguation que le web permet, FLP offre la possibilité de lister-indexer-combiner deux mots-idées (souvent leur radicaux suffiront). Avec trois termes - ou plus - c'est aussi possible, mais cette première articulation à deux est très importante. Nous la voulons à petit pas parce qu'il nous parait qu'elle représente par essence un saut important. Donc à explorer avec circonspection.

Ainsi, via une modération communautaire, se développe la base de données FLP. Elle qui intègre des textes en général très ou assez courts, traitants n'importe quel sujet. BD intelligente aussi, au sens où ses paramètres et ceux des auteurs sont affinés, et permettent de combiner beaucoup de recherches différentes (par sexe, diacronies, topologies, etc) grâce à la souple puissance d'Elastic Search.

Auteur: Mg

Info: oct 2022 *Traitement automatique du langage (N) le N est pour naturel

[ citation s'appliquant à ce logiciel ] [ pré-mémétique ? ]

 

Commentaires: 0

Ajouté à la BD par miguel

postmodernité

Tous les cliniciens témoignent d’un changement dans les comportements des enfants ces trente dernières années. Le changement est d’abord apparu chez les adolescents dans les années 1980 et c’est d’abord pour décrire leurs nouveaux modes d’être qu’ont été inventés les "états limites", l’adolescence prolongée, éternisée, et la difficulté rencontrée par un nombre grandissant de jeunes de structurer leur organisation psychique et donc de développer les troubles classiques de la souffrance psychique que sont les névroses "normales". Depuis le début des années 2000, le changement touche des enfants de plus en plus jeunes, d’abord les enfants d’âge scolaire avec la "disparition" de la période de latence, puis plus récemment les enfants d’âge préscolaire. Ces enfants présentent tous les mêmes symptômes comportementaux :

- une difficulté majeure à supporter les frustrations et donc les ordres émanant des adultes ;

- une propension massive à répondre par des agirs, parfois violents (crises de colères, crises clastiques allant parfois jusqu’au meurtre) ;

- une difficulté importante à mentaliser leurs éprouvés et leurs ressentis psychiques, ainsi qu’une absence de culpabilité face aux actes commis.

[...] La clinique quotidienne avec ces enfants montre que ceux-ci cherchent désespérément une limite à l’excitation pulsionnelle qu’ils n’arrivent pas à canaliser, ni à mettre en forme. Ces petits sujets soumis à l’excitation ne peuvent trouver à calmer celle-ci que par la présence ici et maintenant d’un objet de la réalité avec lequel satisfaire la pulsion. Pas de limite interne pour eux, la seule limite qu’ils trouvent est celle de l’épuisement corporel, la limite du corps. Les incarnations imaginaires de l’Autre que sont normalement les parents et les adultes ne font pas obstacle à la réalisation du plaisir pour ce type d’enfant.

Là où l’enfant pris dans la logique des discours situait normalement la limite par le ressenti de la culpabilité, comme nous l’avons vu plus haut, l’enfant des parlottes modernes ignore la "grosse voix" interdictrice et la limite ne peut venir que de lui-même, ou de la force réelle de l’autre. La psychopathologie des enfants a du coup évolué. L’enfant des discours souffrait de phobie, de la peur du loup représentant le père puissant de l’œdipe, par culpabilité. L’enfant moderne souffre d’une absence de limite posée par l’autre et cherche par tous les moyens à provoquer cet autre pour trouver enfin une limite rassurante à sa toute-puissance. Le remplacement des phobies infantiles, rares de nos jours au moins en tant que motif de consultations, par les TDHA signe le changement de construction subjectif lié à la bascule des discours de référence. Le discours libéral, en effet, est "sans limite" et les modalités éducatives issues de cette forme de parlottes sont celles de "l’épanouissement" et de "l’éveil" de l’enfant. Le retour de la limite fait alors retour, non plus dans la psyché sous la forme de la culpabilité, mais de la seule limite que connaisse le sujet, celle du corps.

Cette limite dans le corps et par le corps est d’ailleurs aujourd’hui celle qui prend une place fondamentale dans la psychopathologie du sujet et dans le lien social.

Auteur: Lesourd Serge

Info: Dans "Comment taire le sujet ?", éditions Érès, 2010, pages 217 à 219

[ psychanalyse ] [ transformations ] [ structures incorporées du langage ]

 
Commentaires: 3
Ajouté à la BD par Coli Masson

nature

Le rôle écologique des espèces rares est unique
De nombreuses espèces rares jouent un rôle écologique unique, et sont, de ce fait, irremplaçables, même dans les écosystèmes les plus diversifiés de la planète. C'est ce que vient de montrer une équipe internationale menée par des chercheurs du CNRS, de l'Université Montpellier 2, de l'INRA, de l'EPHE et de l'IRD. À partir de données issues de trois écosystèmes très différents (récifs coralliens, prairies alpines et forêts tropicales), les scientifiques ont découvert que les fonctions écologiques uniques (comme une résilience exceptionnelle au feu et à la sécheresse) sont majoritairement portées par les espèces rares et sont donc particulièrement vulnérables à l'érosion de la biodiversité. Ces fonctions pourraient s'avérer cruciales pour le fonctionnement des écosystèmes en cas de changements environnementaux majeurs. Publiés le 28 mai 2013 dans la revue Plos Biology, ces travaux montrent que la sauvegarde de la biodiversité dans son ensemble est capitale pour la résilience et la survie des écosystèmes.
Les milieux où la biodiversité est élevée sont caractérisés par un grand nombre d'espèces rares, c'est-à-dire qui présentent une faible abondance locale ou une aire de distribution limitée. Leur importance fonctionnelle est souvent perçue comme secondaire: elles sont considérées comme ayant une influence mineure sur le fonctionnement des écosystèmes et comme n'offrant qu'une "assurance" écologique en cas de disparition d'espèces plus communes. Les travaux publiés dans Plos Biology viennent réfuter cette idée.
Les chercheurs se sont intéressés aux traits fonctionnels d'un très grand nombre d'espèces d'animaux et de plantes. Ces traits permettent, en écologie, de décrire une espèce: est-ce un animal carnivore ou herbivore, diurne ou nocturne, fouisseur ou volant ? Est-ce une plante résistante ou non à la sécheresse, cherchant ou pas la lumière directe, préférant les sols acides ou basiques ? L'ensemble des traits fonctionnels d'une espèce sous-tendent sa fonction écologique.
Les scientifiques ont ensuite testé l'hypothèse selon laquelle les espèces rares assureraient des fonctions originales dans les écosystèmes. Pour cela, ils ont croisé les informations biologiques et biogéographiques de 846 espèces de poissons de récifs coralliens, 2 979 espèces de plantes alpines et 662 espèces d'arbres tropicaux originaires de Guyane. Leur hypothèse s'est révélée juste: les espèces qui présentent des combinaisons exceptionnelles de traits fonctionnels et qui, par conséquent, jouent un rôle écologique unique, sont majoritairement des espèces rares.
Trois exemples permettent d'illustrer leurs résultats: la murène géante javanaise (Gymnothorax javanicus) se nourrit la nuit de poissons et invertébrés cachés dans les labyrinthes coralliens. Elle permet ainsi l'élimination de proies, souvent fragilisées, inaccessibles aux autres prédateurs. Le saxifrage pyramidal (Saxifraga cotyledon), une plante alpine, constitue quant à lui une ressource unique pour les pollinisateurs des parois rocheuses. La sapotacée Pouteria maxima, arbre massif de la forêt tropicale de Guyane, présente une exceptionnelle résilience au feu et à la sécheresse, ce qui permet la recolonisation par la forêt d'espaces dévastés par le feu. Ces espèces rares n'ont que peu d'équivalents fonctionnels dans leurs écosystèmes respectifs.
Portées par des espèces vulnérables, les fonctions uniques pourraient disparaître alors qu'elles peuvent s'avérer importantes pour le fonctionnement des écosystèmes en cas de changements environnementaux majeurs et déterminer leur résistance aux perturbations. Ainsi, ce travail souligne l'importance de la conservation des espèces rares et la nécessité de mener de nouvelles expérimentations permettant de tester explicitement l'influence de la rareté sur les processus écologiques.

Auteur: http://www.techno-science.net

Info: 30 mai 2013

[ survie ] [ harmonie ] [ sciences ] [ niches ]

 

Commentaires: 0

animal-minéral

Des progrès dans la compréhension de la biominéralisation par une nouvelle microscopie X

Chez les organismes vivants, les processus de biominéralisation régulent la croissance des tissus minéralisés, tels que les dents, les os, les coquilles… Ces procédés restent fascinants à étudier pour une meilleure compréhension du monde naturel qui nous entoure et de sa diversité, d'autant plus que ces recherches peuvent contribuer à l'élaboration de procédés biomimétiques pour la réalisation de nouveaux matériaux.

Une équipe interdisciplinaire française, à laquelle participe l'équipe du LIONS de l'UMR NIMBE, s'est intéressée à la bio-formation du carbonate de calcium, dont la structure complexe est encore largement incomprise. La texture complexe de matériaux naturels, observés auprès du synchrotron de l'ESRF par une méthode originale de diffraction de rayons X développée par l'Institut Frenel, est décrite et les résultats publiés dans la revue "Nature Materials". Un point de départ pour comprendre l'élaboration de ce composé, et définir les conditions physiques, chimiques et biologiques nécessaires pour produire de façon synthétique ce type de biominéraux.

La compréhension en sciences des matériaux, paléoclimatologie et sciences de l’environnement des phénomènes de biominéralisation ouvrent des perspectives fascinantes et attirent nombre de chercheurs. Le carbonate de calcium en est une bonne illustration : les théories issues de la cristallisation classique ne peuvent expliquer la formation des structures biominérales calcaires extrêmement complexes, telles que celles observées chez l’oursin ou l’huître perlière par exemple. La formation de ce constituant majeur de la croute terrestre reste ainsi encore largement incomprise.

L’étude, menée par une équipe interdisciplinaire française et publiée dans la revue Nature Materials, exploite une nouvelle microscopie en rayons X permettant de révéler les spécificités structurales du biominéral. Elle conduit à l’identification de modèles probables de biominéralisation.

L’approche développée par cette équipe est motivée par une contradiction apparente : tandis que les espèces vivantes capables de cristalliser le carbonate de calcium produisent une remarquable diversité architecturale aux échelles macro et micrométriques, à l’échelle sub-micrométrique, la structure biominérale se caractérise au contraire, par l'observation constante d'une même structure granulaire et cristalline. Par conséquent, une description des caractéristiques cristallines à cette échelle "mésométrique", c'est-à-dire, à l’échelle de quelques granules (50-500 nm), est une clé pour construire des scénarios réalistes de biominéralisation. C’est également une difficulté majeure pour la microscopie, puisqu’aucune des approches expérimentales actuellement utilisées (électroniques, X ou visibles) n’est capable d’y accéder.

Grâce à la nouvelle approche de microscopie X en synchrotron, la ptychographie de Bragg, développée en 2011 par l’Institut Fresnel, il a été possible de révéler les détails tridimensionnels de l'organisation méso-cristalline des prismes de calcite, les unités minérales constituant l’extérieur de la coquille de l’huître perlière. Bien que ces prismes soient habituellement décrits comme des mono-cristaux "parfaits", il a été possible de mettre en évidence l'existence de grands domaines cristallins d’iso-orientations et d’iso-déformations, légèrement différents les uns des autres. Ces résultats entièrement originaux plaident en faveur de chemins de cristallisation non classiques, comme la fusion partielle d’un ensemble de nanoparticules primaires ou l’existence de précurseurs de type liquides.

Ce résultat a été obtenu dans cadre d’un programme de recherche à 4 ans financé par l’ANR (ANR-11-BS20-0005). Il constitue le point de départ d’un projet ERC Consolidator (#724881), qui a pour objectif d’établir les conditions physiques, chimiques et biologiques nécessaires pour produire des biominéraux synthétiques à la demande.

Auteur: Internet

Info: Réf :  F. Mastropietro, P. Godard, M. Burghammer, C. Chevallard, J. Daillant, J. Duboisset, M. Allain, P. Guenoun, J. Nouet, V. Chamard, Revealing crystalline domains in a mollusc shell “single-crystalline” prism, Nature Materials (2017). Communiqué CNRS/INSIS : "Une nouvelle microscopie éclaire la formation des biominéraux", 1er sept 2017

[ évolution ] [ niveaux intermédiaires ] [ méta-moteur ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Meta a dévoilé une intelligence artificielle capable de lire dans vos pensées. En s’appuyant sur les signaux électromagnétiques du cerveau, l’IA peut comprendre les images que vous avez en tête et les reproduire.

Meta concentre désormais ses efforts sur l’intelligence artificielle. Ces derniers mois, les chercheurs du groupe de Mark Zuckerberg ont dévoilé une pléthore d’innovations s’appuyant sur l’IA. Citons notamment Voicebox, une intelligence artificielle capable d’imiter une voix humaine, le modèle de langage Llama 2, ou MusicGen, un outil qui peut produire une musique à la demande.

Le géant de Menlo Park ne compte pas s’arrêter là. Sur son site web, Meta vient de mettre en ligne un rapport consacré à une IA conçue pour décoder ce qu’il se passe dans le cerveau humain. L’intelligence artificielle est en effet capable de comprendre les images qu’un individu a en tête. Par la suite, l’IA va reproduire les images aperçues dans les pensées de celui-ci.

Comment l’IA peut lire dans le cerveau ?

Pour parvenir à cette prouesse, Meta s’appuie sur la magnéto-encéphalographie, ou MEG, une technique d’imagerie cérébrale qui mesure l’activité électromagnétique du cerveau. En collectant "des milliers de mesures d’activité cérébrale" par seconde, le système va "décoder le déploiement des représentations visuelles dans le cerveau". Meta a mis au point un "modèle de décodage" basé sur l’IA pour comprendre les champs magnétiques produits par l’activité neuronale.

Une fois que les données ont été traitées, elles vont être reliées aux représentations visuelles mises au point l’IA en amont. Ces représentations sont générées par un encodeur d’image, qui dispose d’un " riche ensemble " de visuels différents. En d’autres termes, les images déjà disponibles vont être comparées aux images décelées dans le cerveau. C’est là que l’" encodeur cérébral " entre en jeu. Enfin, l’IA va produire une " image plausible " en se basant sur les visuels dans les pensées de la cible. Notez que les visuels sont générés en continu à partir du cerveau, ce qui offre un aperçu unique de ce qu’il se passe dans l’esprit humain.

Dans le cadre de son expérience, l’entreprise a d’abord montré une image, fournie par l’IA, à des bénévoles. En parallèle, une machine MEG scannait les signaux de leur cerveau. Meta a partagé plusieurs exemples des résultats générés dans son rapport. Dans la plupart des cas, le résultat final n’est pas tombé loin de l’image montrée à l’origine. L’IA parvient généralement à reproduire l’objet principal de l’image en s’appuyant sur les ondes et sa bibliothèque de visuels.

" Nos résultats montrent que le MEG peut être utilisé pour déchiffrer, avec une précision d’une milliseconde, la montée des représentations complexes générées dans le cerveau ", résume Meta.

Les limites de l’IA

À ce stade, l’IA doit d’abord être entraînée sur l’activité cérébrale d’un individu avant d’être utilisée pour décrypter des pensées. Le système doit passer par une période de formation, qui va l’habituer à interpréter des ondes cérébrales spécifiques. De la même manière, un modèle linguistique doit être formé sur base d’une montagne de textes avant de pouvoir animer un chatbot.

De plus, rien n’indique que cette technologie, encore à ses balbutiements, puisse permettre de décoder des images qui ne sont pas d’abord traitées par l’IA. Tout en promettant d’autres avancées à l’avenir, Meta estime que sa technologie pourrait permettre de concevoir des " interfaces cerveau-ordinateur non invasives " pour venir en aide aux personnes qui ont perdu la capacité de parler.

Notez qu’il ne s’agit pas de la première fois qu’une IA parvient à lire dans les pensées humaines. Cet été, des chercheurs américains ont dévoilé une IA capable de deviner la musique qu’une personne est en train d’écouter uniquement en collectant les données issues du cerveau. Là encore, les scientifiques se sont appuyés sur les signaux électriques émis par le cerveau. 

Auteur: Internet

Info: https://www.01net.com/, 19 octobre 2023, source : Meta

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

prospective FLP

Les listes furent parmi les premiers emplois, sinon le premier, quant à l'utilisation humaine de l'écriture comme outil communautaire. Elles avaient fonction d'inventaire, c'est à dire de faire un état des lieu des réserves dans un but de survie du groupe. C'est dire si ces signes alignés sur un mur de pierre avaient une réalité, une durabilité, en eux - signifiés avec signifiants en béton. Ces marques "pour mémoire" portaient donc une réelle valeur de conservation temporelle et ce qui était ainsi catégorisé, mis dans un rayonnage, l'était pour plusieurs jours au moins.

Il semble assez clair que les milliers d'années  de développement du langage, en partie "sur support externe", déployement dans le temps qu'on résumera par foisonnement-accélération, (c'est à dire la virtualisation d'un réel qui restera à tout jamais la roche-mère des signes et idiomes), ont accentué un décalage. Une déconnection pas assez soulignée à notre sens.

La réalité, priméité source (clin d'oeil à C.S. Peirce), déformée par cet emballement, se retrouve du coup "distancié", superficialisée. Avec pour défaut central une déformation du TEMPS sémantique dans sa valeur anthropique (il n'en a pas d'autre d'ailleurs, ah ah ah). C'est à dire que le fonctionnement biologique du primate humain reste beaucoup plus proche du réel sumérien, alors que son "réel projeté" actuellement par le langage (pour les images c'est pire) s'est accéléré/complexifié. 

L'idée sur laquelle nous voulons insister est celle d'une déconnexion entre mots/phrases consensuels acceptés et leurs valeurs réelles en terme de signification/classification - le temps des hommes s'écoulant. Nous considérons que les qualités sémantiques actuelles n'ont plus le poids et la durabilités qui étaient les leurs jadis, que ce soit il y a 200, 500, ou 5000 ans.

Faut-il tenter de l'expliquer mieux, pour que les gens acquiérent un certain recul ? Faut-il clarifier/consolider les dictionnaires, thésaurus et autres définitions sémantiques actuelles ? Nous n'en savons rien. 

Nous voulons juste pointer sur ceci : "il y a un déphasage, un manque de sagesse, à ne pas prendre en compte ce constat, à savoir que les significations des mots et des expressions, elles-mêmes issues d'habitudes de rangements avec base durable en arrière-plan, méritent qu'on se ré-attarde dessus". 

Il faut préciser et sans cesse repréciser leurs sens, dans leurs contextualisations bien sûr. Avec deux a priori : 

a) Une volonté de ralentir le plus possible la précipitation de la pensée, c'est à dire en réfrénant les pulsions "pousse-à-jouir" de nos organismes, que la clinquante pub capitaliste ne s'est pas gênée d'exploiter à mort, et les routines de langages inhérentes - qui pensent à notre place - et nous amènent à dégueuler des avis "sans réfléchir". 

b) Toute classification doit être considérée comme éphémère/transitoire, puisque toujours établie en fonction d'un objectif : se justifier, expliquer, définir, raconter, etc...

Poussant cette idée plus avant FLP s'imagine un développement permettant de présenter n'importe quel concept/extrait (ou une base de 2 ou plusieurs mots/termes ou autre) via une résentation planétoïde de ses tags/catégories. C'est à dire une sphère de corrélats (convexe ou concave, c'est à voir), qu'on pourra faire pivoter à loisir, à la surface de laquelle il sera également possible de déplacer et agencer chaque mot-corrélat en fonction des autres afin de modifier-orienter-préciser l'ordre des termes, ou les résultats, d'une recherche. Chacune de ces dispositions globulaire "catégorie-corrélats" pouvant aussi être mémorisée par l'utilisateur selon ses convenances, afin, par exemple, de la comparer avec d'autres extraits/écrits/concepts via leur présentations globulaires de corrélats... voire même avec certaines situations/contextualisations - imaginaires ou pas - pareillement bien fixées/précisées.

Ainsi sera-il peut-être possible de déceler certaines similitudes entre topologies sémantiques complexes (toujours via leurs dispositions planétoïdes) et ainsi débuter ce que nous nommerons "recueil atemporel comparé d'intrication sémantiques complexes." 

C'est ici que, peut-être, appaitrons des analogies entre langage et biologie... Ou autre.

Auteur: Mg

Info: début août 2021

[ statistiques linguistiques ] [ pré-mémétique ] [ réidentification ] [ tétravalence ]

 
Commentaires: 16
Ajouté à la BD par miguel

sciences physiques

Le CERN relance la recherche des " particules fantômes " de l'Univers

Les scientifiques européens du CERN vont lancer la construction d'un nouvel accélérateur de particules, dans l'espoir d'identifier enfin les "particules cachées" de l'Univers.

Les scientifiques du plus grand accélérateur de particules du monde vont disposer d'un nouvel outil qui, selon les chercheurs, pourrait les aider à découvrir la face cachée de l'Univers.

L'Organisation européenne pour la recherche nucléaire (CERN) va entamer la construction d'un nouveau supercollisionneur, le "Futur collisionneur circulaire", qui sera 1 000 fois plus sensible aux particules dites "cachées", ou "fantômes", que l'équipement actuel utilisé par l'organisation.

Les accélérateurs de particules permettent aux scientifiques de recréer les conditions du Big Bang, la théorie physique qui décrit l'apparition de l'Univers.

Dans ce nouvel appareil, les particules seront projetées contre une surface solide, et non plus les unes contre les autres comme dans les accélérateurs actuels

Le collisionneur fait partie du projet SHiP (Search for Hidden Particles) du CERN, un projet en gestation depuis dix ans qui permettra d'étudier certaines des particules les plus discrètes de l'espace.

Richard Jacobsson, physicien principal au CERN, affirme que ce projet pourrait constituer une "avancée considérable" qui redéfinirait la compréhension de la création de l'Univers.

" SHiP est l'une de ces expériences qui pourraient changer le paradigme scientifique et nous faire entrer dans un tout nouveau domaine de connaissances, non seulement sur notre Univers, mais aussi sur notre position dans celui-ci", avance Richard Jacobsson lors d'une interview.

"La plupart des hypothèses que nous avons formulées jusqu'à présent pourraient être réévaluées".

Selon le physicien, les scientifiques n'ont jamais réussi à détecter ce type de particules, car ils ne disposaient pas de la technologie adéquate.

Que sont les particules fantômes ?

D'après Richard Jacobsson, tout ce que nous pouvons voir à l'œil nu depuis l'espace, y compris les étoiles et les planètes, représente environ 5 % de la matière réelle de l'Univers.

Les 95 % restants se répartissent, selon les connaissances actuelles, entre environ 26 % de matière noire et 69 % d'énergie noire, selon le physicien.

Les scientifiques utilisent actuellement le "modèle standard", qui comprend 17 particules différentes, pour expliquer la composition de l'Univers.

En 2012, les scientifiques du CERN ont découvert une nouvelle particule du modèle standard, le boson de Higgs, grâce au Grand collisionneur de hadrons, une découverte qui leur a valu le prix Nobel de physique un an plus tard.

Depuis, les tentatives d'utiliser ce même collisionneur pour mesurer les particules cachées - qui pourraient également constituer la matière noire et l'énergie noire, mais ne font pas partie du modèle standard - se sont toutes soldées par des échecs.

" La découverte du boson de Higgs a comblé un vide sans pour autant prédire quelque chose de nouveau", déclare Richard Jacobsson.

"L'idée de ce projet est née presque par hasard, d'un partenariat entre des personnes issues de différents domaines et désireuses d'explorer la physique sous un autre angle".

Les particules "cachées" ou "fantômes" sont invisibles et ont des connexions physiques plus faibles que les particules déjà découvertes, ce qui les rend difficiles à détecter.

Le Grand collisionneur de hadrons du CERN peut détecter les particules jusqu'à un mètre du site de la collision, mais les particules cachées restent invisibles beaucoup plus longtemps avant de se révéler.

Les détecteurs du nouveau collisionneur du projet SHiP seront donc placés plus loin et produiront davantage de collisions sur une toile de fond fixe afin d'identifier plus facilement ces particules.

La construction des nouvelles installations souterraines du SHiP débutera en 2026 et les premières expériences pourraient avoir lieu vers 2032.

Le futur collisionneur circulaire, quant à lui, sera mis en service dans le courant des années 2040, mais n'atteindra son plein potentiel qu'en 2070, selon des informations rapport de la BBC.

Auteur: Internet

Info: https://fr.euronews.com/ - Anna Desmarais,  26 mars 2024

[ infra-monde ] [ sub-particules élémentaires ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

disponibilité mentale

Une zone du cerveau qui serait la porte de la conscience

Le cortex insulaire antérieur serait la porte de la conscience, d'après de nouveaux travaux américains. Inactivée, elle empêcherait la prise de conscience des stimuli.

Parmi les milliers de stimuli visuels, auditifs ou autres que notre cerveau traite en continu chaque jour, seuls certains passent la porte de notre conscience. Mais le mécanisme qui permet de sélectionner les stimuli dont nous avons conscience des autres n'est toujours pas clair. Pour des chercheurs du Center for Consciousness Science du Michigan Medicine (Etats-Unis), la clé se situerait dans une partie de notre cerveau appelée le cortex insulaire antérieur. Ces travaux sont publiés dans la revue Cell Reports.

LES 4 THÉORIES DE LA CONSCIENCE. Pour comprendre, mais aussi pour analyser les observations issues des expériences, la science de la conscience a besoin de théories. Il en existe quatre principales : l’espace de travail global, l’ordre supérieur, l’information intégrée et le processus récurrent ou de premier ordre. Pour en savoir plus, lisez le passionnant numéro de La Recherche d'avril-juin 2021 !

Une "structure critique" contrôlerait l'entrée des informations dans la conscience

"Le traitement de l'information dans le cerveau a deux dimensions : le traitement sensoriel de l'environnement sans conscience et celui qui se produit lorsqu'un stimulus atteint un certain niveau d'importance et entre dans la conscience", explique dans un communiqué Zirui Huang, premier auteur de la publication. "Malgré des décennies de recherche en psychologie et en neurosciences, la question de savoir pourquoi certains stimuli sensoriels sont perçus de manière consciente alors que d'autres ne le sont pas reste difficile à résoudre", introduisent les auteurs dans la publication. Ils émettent alors l'hypothèse qu'il existe une "structure critique" où "l'accès conscient aux informations sensorielles est contrôlé". Ils ont même un suspect : le cortex insulaire antérieur, qui a précédemment été reconnu comme une plaque tournante centrale du cerveau, notamment "car il reçoit des entrées de différentes modalités sensorielles et de l'environnement interne", comme les émotions. 

Lorsque le cortex insulaire antérieur est éteint, la conscience aussi

Pour le prouver, l'équipe se penche sur 26 sujets qu'ils examinent à l'IRM fonctionnelle, qui permet de voir les zones activées du cerveau dans le temps. Ils leur injectent alors un anesthésiant, le propofol, pour contrôler leur niveau de conscience. Comme imaginer une action active les mêmes zones du cerveau que de les réaliser réellement, les chercheurs ont ensuite demandé aux sujets de s'imaginer dans plusieurs situations. Ils devaient s'imaginer en train de jouer au tennis, de marcher le long d'un chemin ou de serrer leur main, ainsi que d'effectuer une activité motrice (serrer une balle en caoutchouc) alors qu'ils perdaient progressivement conscience et la retrouvaient après l'arrêt du propofol.

Résultat, la perte de conscience due au propofol "crée un dysfonctionnement du cortex insulaire antérieur" ainsi qu'une altération des réseaux cérébraux nécessaires aux états de conscience. En revanche, aucune des autres régions impliquées dans la régulation sensorielle ou l'éveil, comme le thalamus, ne répondaient de cette façon. "Un stimulus sensoriel active normalement le cortex insulaire antérieur", explique Hudetz. "Mais lorsque vous perdez conscience, le cortex insulaire antérieur est désactivé et les changements de réseau dans le cerveau qui soutiennent la conscience sont perturbés." Le cortex insulaire antérieur pourrait donc agir comme un filtre qui ne permet qu'aux informations les plus importantes d'entrer dans la conscience.

Le cortex insulaire antérieur serait la porte de la conscience

Pour confirmer ces résultats, la deuxième expérience cherche à savoir si l'activation du cortex insulaire antérieur est prédictive de la prise de conscience d'une information. Pour le savoir, les chercheurs montrent un visage sous forme d'image subliminale – qui reste 33 millisecondes à l'écran – à 19 volontaires sains placés dans l'IRM fonctionnelle. Les volontaires doivent ensuite dire s'ils ont vu ou non le visage. Les scientifiques constatent alors que l'activation préalable du cortex insulaire antérieur était prédictif de la capacité du sujet à percevoir consciemment l'image du visage. "Le cortex insulaire antérieur a une activité qui fluctue continuellement", explique Zirui Huang. "La détection d'un stimulus dépend de l'état de l'insula antérieure lorsque l'information arrive dans le cerveau : si l'activité de l'insula est élevée au moment du stimulus, vous verrez l'image. Sur la base des résultats de ces deux expériences, nous concluons que le cortex insulaire antérieur pourrait être une porte pour la conscience."



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Camille Gaubert, 4.05.2021

[ présence ] [ joignable ] [ accessible ] [ disponible ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

Comment le cerveau participe au cancer

Des neurones voient le jour au sein même du microenvironnement tumoral, contribuant au développement du cancer. Ces cellules nerveuses dérivent de progéniteurs provenant du cerveau et sont acheminés via la circulation sanguine. Cette découverte étonnante ouvre la voie à tout un nouveau champ de recherche, relatif au rôle du système nerveux dans le développement des cancers et aux interactions entre les systèmes vasculaires, immunitaires et nerveux dans la tumorigenèse.

La production de nouveaux neurones est un événement plutôt rare chez l'adulte, cantonné à deux régions particulières du cerveau: le gyrus denté dans l'hippocampe et la zone sous-ventriculaire. Mais voilà que l'équipe Inserm Atip-Avenir dirigée par Claire Magnon* à l'Institut de Radiobiologie Cellulaire et Moléculaire, dirigé par Paul-Henri Roméo (CEA, Fontenay-aux-Roses), vient de montrer que ce phénomène se produit également en dehors du système nerveux central: dans les tumeurs !

En 2013, cette chercheuse avait déjà mis en évidence, dans des tumeurs de la prostate, que l'infiltration de fibres nerveuses, issues de prolongements d'axones de neurones préexistants, était associée à la survenue et à la progression de ce cancer. Depuis, d'autres études ont permis de confirmer le rôle inattendu, mais apparemment important, des fibres nerveuses dans le microenvironnement tumoral de nombreux cancers solides.

Soucieuse de comprendre l'origine du réseau neuronal tumoral, Claire Magnon a une idée surprenante: et si le réseau nerveux impliqué dans le développement des tumeurs provenait de nouveaux neurones se formant sur place ? Et dans ce cas, comment pourrait être initiée cette neurogenèse tumorale ?

Des cellules neurales souches dans les tumeurs
Pour tester cette hypothèse, Claire Magnon a étudié les tumeurs de 52 patients atteints de cancer de la prostate. Elle y a découvert des cellules exprimant une protéine, la doublecortine (DCX), connue pour être exprimée par les cellules progénitrices neuronales, lors du développement embryonnaire et chez l'adulte dans les deux zones du cerveau où les neurones se renouvellent. De plus, dans les tumeurs étudiées, la quantité de cellules DCX+ est parfaitement corrélée à la sévérité du cancer. "Cette découverte étonnante atteste de la présence de progéniteurs neuronaux DCX+ en dehors du cerveau chez l'adulte. Et nos travaux montrent qu'ils participent bien à la formation de nouveaux neurones dans les tumeurs", clarifie-t-elle.

Une migration du cerveau vers la tumeur
Pour déterminer l'origine de ces progéniteurs neuronaux, Claire Magon a utilisé des souris transgéniques, porteuses de tumeurs. Elle a quantifié les cellules DCX+ présentes dans les deux régions du cerveau où elles résident habituellement. Elle a alors constaté que, lors de l'établissement d'une tumeur, leur quantité est réduite dans l'une d'elles: la zone sous-ventriculaire. "Il y avait deux explications: soit les cellules DCX+ mourraient dans cette région sans qu'on en connaisse la cause, soit elles quittaient cette zone, ce qui pouvait expliquer leur apparition au niveau de la tumeur".

Différentes expériences ont montré que cette seconde hypothèse était la bonne avec la mise en évidence du passage des cellules DCX+ de la zone sous-ventriculaire du cerveau dans la circulation sanguine et de l'extrême similarité entre les cellules centrales et celles retrouvées dans la tumeur. "En pratique, nous constatons des anomalies de perméabilité de la barrière hématoencéphalique de la zone sous-ventriculaire chez les souris cancéreuses, favorisant le passage des cellules DCX+ dans le sang. Rien ne permet pour l'instant de savoir si ce problème de perméabilité précède l'apparition du cancer sous l'effet d'autres facteurs, ou si elle est provoquée par le cancer lui-même, via des signaux issus de la tumeur en formation.

Quoi qu'il en soit, les cellules DCX+ migrent dans le sang jusqu'à la tumeur, y compris dans les nodules métastatiques, où elles s'intègrent au microenvironnement. Là, elles se différencient en neuroblastes puis en neurones adrénergiques producteurs d'adrénaline. Or, l'adrénaline régule le système vasculaire et c'est probablement ce mécanisme qui favorise à son tour le développement tumoral. Mais ces hypothèses restent à vérifier".

Une piste thérapeutique
En attendant, cette recherche ouvre la porte à une nouvelle piste thérapeutique: De fait, des observations cliniques montrent que les patients atteints de cancer de la prostate qui utilisent des bêtabloquants (qui bloquent les récepteurs adrénergiques) à des fins cardiovasculaires, présentent de meilleurs taux de survie. "Il serait intéressant de tester ces médicaments en tant qu'anticancéreux" estime la chercheuse. Deux essais cliniques allant dans ce sens ont récemment ouvert aux Etats-Unis. De façon plus générale, "l'étude de ce réseau nerveux dans le microenvironnement tumoral pourrait apporter des réponses sur le pourquoi des résistances à certains traitements et favoriser le développement de nouveaux médicaments", conclut-elle.

Auteur: Internet

Info: www.techno-science.net, 17 mai 2019. *Laboratoire de Cancer et Microenvironnement, Equipe Atip-Avenir, UMR967 Inserm/IBFJ-iRCM-CEA/Université Paris 11/Université Paris Diderot, Fontenay-aux-Roses

 

Commentaires: 0

Ajouté à la BD par miguel