Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 456
Temps de recherche: 0.0446s

interdépendance

Complexité des écosystèmes: un gage de résilience face au changement
Le fonctionnement d'un écosystème s'articule autour de relations de natures diverses entre une myriade d'espèces. Identifier de manière exhaustive ces interactions et le rôle qu'elles jouent dans le fonctionnement d'un écosystème demeure toutefois peu évident.
Dans une étude publiée récemment dans PLos Biology, une équipe internationale menée par deux chercheurs de l'Institut des Sciences de l'Evolution de Montpellier (ISEM, CNRS / IRD / EPHE) et du Laboratoire Biométrie et Biologie Evolutive de Villeurbanne (CNRS / Université de Lyon) a pu étudier l'ensemble des relations trophiques* et non-trophiques entre les espèces présentes dans la zone de balancement des marées de la côte centrale du Chili.
Ce travail inédit, basé sur la modélisation mathématique des réseaux, montre que ces interactions sont fortement structurées selon une organisation qui assure la résilience de la communauté. Il confirme ainsi l'importance de prendre en compte la diversité des relations interspécifiques d'un écosystème pour prévoir ses réactions face à des perturbations de grande ampleur comme le changement climatique.
La plupart des travaux scientifiques qui s'intéressent au fonctionnement des milieux naturels se sont jusqu'ici focalisés sur les relations trophiques entre les espèces qui les composent. Or d'autres formes d'interactions comme le mutualisme ou la compétition pour l'espace semblent jouer un rôle tout aussi important. Ces relations non-trophiques sont pourtant rarement prises en compte dans les études portant sur les réseaux écologiques.
Avec l'aide des scientifiques chiliens du Center for Marine Conservation et du Center for Applied Ecology and Sustainability, qui analysent depuis plusieurs décennies les interactions entre les espèces qui peuplent la côte du centre du Chili, des chercheurs français et américains sont parvenus à visualiser pour la première fois un réseau écologique dans toute sa complexité. "En traitant l'importante masse de données collectée par nos collègues chiliens à l'aide de puissants outils de modélisation statistique des réseaux, nous avons pu dresser une cartographie précise des relations s'établissant entre les 106 espèces qui peuplent cette zone intertidale", détaille Sonia Kéfi, chercheuse en écologie à l'Institut des Sciences de l'Evolution de Montpellier et cosignataire de l'article.
Les scientifiques ont ainsi constaté que les interactions non-trophiques comme la compétition pour l'espace ou la création d'habitats étaient deux fois plus nombreuses que celles correspondant à la consommation directe d'autres organismes. L'équipe a ensuite réparti les 106 espèces impliquées dans ces interactions en différents groupes au sein desquels les espèces sont très proches sur le plan taxonomique. Chacun d'eux rassemblait des organismes entretenant le même genre de relations avec les autres êtres vivants de la zone de balancement des marées.
A partir de cette représentation simplifiée du fonctionnement de l'écosystème, les chercheurs ont élaboré un système dynamique simulant l'évolution de sa biomasse totale et de sa biodiversité en fonction de l'organisation initiale de ce réseau d'interactions. "Lorsque nous introduisions de l'aléatoire dans la structure du réseau, nous observions à chaque fois une diminution de ces deux variables au cours du temps, détaille Sonia Kéfi. La structuration observée dans la nature conduisait quant à elle au maintien de la biodiversité et à une biomasse totale élevée."
Les résultats de cette étude mettent ainsi en avant l'importance de la complexité des relations entre les espèces qui composent une communauté écologique. A l'avenir, ce genre de travaux devrait aider à mieux comprendre la réaction des écosystèmes face à des perturbations comme le changement climatique ou l'exploitation, par l'Homme, des ressources naturelles.

Auteur: Internet

Info: http://www.techno-science.net, Vie et Terre, Posté par Isabelle, Lundi 19/12/2016,*qui concerne la nutrition des organes et des tissus -

[ complémentarité ] [ biotope ]

 

Commentaires: 0

ADN

Le génome humain: un orchestre complexe
Une équipe de généticiens suisses de l'Université de Genève (UNIGE), de l'École Polytechnique Fédérale de Lausanne (EPFL) et de l'Université de Lausanne (UNIL) a découvert que les variations génétiques sont en mesure d'affecter l'état du génome à de nombreux endroits, apparemment séparés, et de moduler par conséquent l'activité des gènes, à la manière d'un chef d'orchestre coordonnant les instrumentistes pour qu'ils jouent en harmonie. Ces résultats inattendus, publiés dans Cell, révèlent le caractère polyvalent de la régulation du génome et offrent de nouvelles perspectives sur la façon dont il est orchestré.
La chromatine est un ensemble de protéines et d'ADN qui emballe le génome dans une cellule. Elle arrange l'ADN de telle sorte qu'il puisse être "lu" par un groupe de protéines appelé facteurs de transcription, qui active ou réprime l'expression des gènes. La séquence d'ADN varie toutefois d'un individu à l'autre, entraînant ainsi une variation moléculaire entre les états de la chromatine des individus. Cela finit par causer des variations dans la manière dont les humains répondent à l'environnement. Comprendre les processus génétiques et moléculaires régissant la variabilité de la chromatine est l'un des défis les plus importants dans le domaine des sciences de la vie qui permettrait de découvrir comment les variations génétiques prédisposent les individus à certaines maladies comme le cancer, le diabète ou les maladies auto-immunes.
L'étude publiée dans Cell montre comment les variations génétiques ont affecté trois couches moléculaires dans les lignées cellulaires immunes chez 47 individus dont les génomes ont été entièrement séquencés: au niveau des interactions entre l'ADN et les facteurs de transcription, des états de la chromatine et de l'expression des gènes. "Nous avons observé que les variations génétiques à un endroit précis du génome impactent plusieurs éléments régulateurs, pourtant séparés, en même temps. Cette coordination surprenante peut être comparée à un chef d'orchestre (ici le variant génétique) qui coordonne tous les instrumentistes (ici les facteurs de transcription et les modifications de la chromatine) pour changer le volume (ici l'expression des gènes) de la musique," explique le professeur Bart Deplancke de l'EPFL. Contrairement au modèle traditionnel qui suppose que l'impact des éléments régulateurs sur l'expression des gènes se fait de façon quasiment indépendante, les chercheurs suisses ont identifié un comportement bien plus harmonieux et synergique.
Les généticiens suisses montrent que le génome n'est pas juste un ensemble linéaire d'éléments qui interagissent par paires ; il s'organise de manière complexe et en réseaux. Si un élément n'agit pas correctement, c'est l'ensemble du système qui sera perturbé. "Nous avons découvert les règles biologiques de base sur le fonctionnement du génome et la manière dont les séquences régulatrices agissent ensemble pour impacter l'expression d'un gène," résume le professeur Alexandre Reymond de l'UNIL.
Si la route vers de potentielles applications médicales est encore longue, les principes mécaniques que les chercheurs viennent de découvrir mettent en lumière les aspects fondamentaux de la biologie du génome. "Il est encore trop tôt pour déterminer si nous serons un jour en mesure de moduler l'expression des gènes de manière ciblée, mais cette étude révèle un niveau de complexité de la fonction du génome qui n'avait pas été anticipé", conclut le professeur Emmanouil Dermitzakis de l'UNIGE. "Appliquer notre découverte à la médecine signifierait identifier un seul chef d'orchestre et définir son rôle parmi tous les autres chefs d'orchestre pour chaque ensemble musical - plutôt que simplement lister tous les artistes jouant dans notre orchestre de génomes."

Auteur: Internet

Info: 21 aout 2015

[ pilotage ] [ guidage ] [ lamanage ] [ gouvernance ] [ méta-moteur ]

 

Commentaires: 0

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

stimulation psy

De très faibles doses de LSD pourraient booster le cerveau

Les participants ont profité des avantages de cette drogue sans en percevoir les inconvénients.

(image : Les chercheurs affirment " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience." )

Une nouvelle étude récente suggère que la prise régulière de psychédéliques en très faibles quantités pourrait procurer de nombreux avantages au cerveau, tant au niveau de la humeur que de la puissance cérébrale. Dans leurs recherches publiées dans la revue Neuropsychopharmacology le 29 janvier 2024, des scientifiques américains et allemands ont tenté des expériences de microdosages sur un groupe de vingt-et-un adultes en bonne santé.

Science Altert rappelle que le LSD, qui a été créé accidentellement dans les années 1930, est toujours une drogue interdite. On sait aujourd'hui que le LSD active certains récepteurs de sérotonine dans le cerveau, ce qui complexifie l'activité cérébrale. Cependant, les risques d'altération de la conscience obligent les scientifiques à un jeu d'équilibriste pour parvenir à une solution thérapeutique efficace. L'objectif est d'obtenir les effets positifs en s'affranchissant des problèmes de sécurité et d'éthique associés aux états de conscience altérés que provoquent les psychédéliques. Dans ce cas précis, les résultats ont montré que de faibles doses peuvent améliorer le bien-être à certains égards, notamment en diminuant la perception de la douleur.

Pour leur expérience, les chercheurs ont administré aux participants trois types de microdoses: soit un placebo, soit treize microgrammes de LSD, soit vingt-six microgrammes de LSD. En théorie, aucun de ces dosages n'est censé entraîner d'effets hallucinatoires sur le consommateur.

L'activité cérébrale des participants a ensuite été testée grâce à l'électroencéphalographie, au moment où les effets des drogues étaient censés être les plus forts. Les participants ont également dû remplir un questionnaire pour évaluer s'ils avaient ressenti des changements sur leur niveau de conscience.

Les résultats montrent que la microdose de vingt-six microgrammes de LSD augmentait la complexité neuronale du cerveau d'environ 12% par rapport à un placebo, le tout sans que la conscience des participants ne soit altérée. Ces derniers ont toutefois fait mention de légères augmentations de l'anxiété et d'excitation dans leurs ressentis.

Une expérience répétée sur d'autres drogues

Les chercheurs ont répété l'expérience dans deux autres groupes, en remplaçant les microdoses de LSD par des microdoses de THC dans l'un, et de méthamphétamine dans l'autre. Dans ces expériences, le THC a affecté la conscience des participants, ce qui n'était pas le cas de la méthamphétamine. Toutefois, et même si le THC a modifié le niveau de conscience, la complexité neuronale est restée inchangée. Dans leur rapport, les chercheurs expliquent que ces données permettent de prouver " qu'une complexité neuronale accrue n'est pas nécessaire, ou du moins pas suffisante pour altérer les états de conscience ".

En revanche, il est encore trop tôt pour arriver à une mesure précise et définitive des effets psychédéliques. L'étude en question repose sur un échantillon très restreint, et le neurologue Robin Carhart-Harris avance que des expériences de plus grande envergure sont nécessaires. Selon lui, il est encore trop tôt pour affirmer que des microdoses n'ont aucun impact sur la conscience de chacun. De plus, les risques liés à la consommation de LSD, même s'il s'agit de vingt-six microgrammes, sont encore difficiles à définir avec précision.

Conor Murray, qui a dirigé l'étude, estime aussi que des recherches supplémentaires sont nécessaires. Il espère qu'à l'avenir, l'augmentation de la complexité neuronale que lui et son équipe ont observée puisse se traduire par des solutions thérapeutiques adaptées aux personnes souffrant de troubles cognitifs et comportementaux.



 

Auteur: Internet

Info: https://www.slate.fr/ , Félix Didier - 28 février 2024

[ désinhibition ] [ déverrouillage ]

 

Commentaires: 0

Ajouté à la BD par miguel

régression linguistique

Baisse du QI, appauvrissement du langage et ruine de la pensée

L’effet de Flynn du nom de son concepteur, a prévalu jusque dans les année 1960. Son principe est que le Quotient Intellectuel (QI) moyen ne cesse d’augmenter dans la population. Or depuis les années 1980, les chercheurs en sciences cognitives semblent partager le constat d’une inversion de l’effet Flynn, et d’une baisse du QI moyen.

La thèse est encore discutée et de nombreuses études sont en cours depuis près de quarante ans sans parvenir à apaiser le débat. Il semble bien que le niveau d’intelligence mesuré par les tests de QI diminue dans les pays les plus développés, et qu’une multitude de facteurs puissent en être la cause.

A cette baisse même contestée du niveau moyen d’intelligence s’ajoute l’appauvrissement du langage. Les études sont nombreuses qui démontrent le rétrécissement du champ lexical et un appauvrissement de la langue. Il ne s’agit pas seulement de la diminution du vocabulaire utilisé, mais aussi des subtilités de la langue qui permettent d’élaborer et de formuler une pensée complexe.

La disparition progressive des temps (subjonctif, passé simple, imparfait, formes composées du futur, participe passé…) donne lieu à une pensée au présent, limitée à l’instant, incapable de projections dans le temps. La généralisation du tutoiement, la disparition des majuscules et de la ponctuation sont autant de coups mortels portés à la subtilité de l’expression. Supprimer le mot "mademoiselle" est non seulement renoncer à l’esthétique d’un mot, mais également promouvoir l’idée qu’entre une petite fille et une femme il n’y a rien.

Moins de mots et moins de verbes conjugués c’est moins de capacités à exprimer les émotions et moins de possibilité d’élaborer une pensée.

Des études ont montré qu’une partie de la violence dans la sphère publique et privée provient directement de l’incapacité à mettre des mots sur les émotions.

Sans mots pour construire un raisonnement la pensée complexe chère à Edgar Morin est entravée, rendue impossible. Plus le langage est pauvre, moins la pensée existe.

L’histoire est riche d’exemples et les écrits sont nombreux de Georges Orwell dans 1984 à Ray Bradbury dans Fahrenheit 451 qui ont relaté comment les dictatures de toutes obédiences entravaient la pensée en réduisant et tordant le nombre et le sens des mots. Il n’y a pas de pensée critique sans pensée. Et il n’y a pas de pensée sans mots. Comment construire une pensée hypothético-déductive sans maîtrise du conditionnel? Comment envisager l’avenir sans conjugaison au futur? Comment appréhender une temporalité, une succession d’éléments dans le temps, qu’ils soient passés ou à venir, ainsi que leur durée relative, sans une langue qui fait la différence entre ce qui aurait pu être, ce qui a été, ce qui est, ce qui pourrait advenir, et ce qui sera après que ce qui pourrait advenir soit advenu? Si un cri de ralliement devait se faire entendre aujourd’hui, ce serait celui, adressé aux parents et aux enseignants: faites parler, lire et écrire vos enfants, vos élèves, vos étudiants.

Enseignez et pratiquez la langue dans ses formes les plus variées, même si elle semble compliquée, surtout si elle est compliquée. Parce que dans cet effort se trouve la liberté. Ceux qui expliquent à longueur de temps qu’il faut simplifier l’orthographe, purger la langue de ses "défauts", abolir les genres, les temps, les nuances, tout ce qui crée de la complexité sont les fossoyeurs de l’esprit humain. Il n’est pas de liberté sans exigences. Il n’est pas de beauté sans la pensée de la beauté.

Auteur: Clavé Christophe

Info: 17.11.2019, l'Agefi

[ décadence culturelle ] [ mutation numérique ] [ simplification ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

La fonction du fantasme, duquel se soutient notre désir, est de nous protéger de la fatale attraction du désir de l'Autre, originellement représenté par la mère - que me veut-elle? quel sorte d'objet suis-je pour elle? que voit-elle en moi? - sans le fantasme, qui est un séquence narrative originelle produite pour colmater le vide de l'inquiétante question, le sujet est sans recours...

Le phantasme originel est un scénario à partir duquel s'articule notre propre désir, mais il reste toujours référent du désir de l'Autre, voilà pourquoi notre désir, c'est toujours le désir de l'Autre, au double sens du génitif objectif et subjectif: ce que l'Autre désire de moi - ce que je désire en l'Autre.

Le désir de l'Autre, par delà le fantasme, reste toujours une question, une énigme, un mystère (sauf pour le sujet pervers qui s’imagine qu’il sait comment faire jouir l’autre...)

Comment se manifeste la différence sexuelle à partir de la formule lacanienne "le désir est toujours le désir de l’Autre ?"

Du côté masculin, pour le dire vite, les choses sont plutôt simples, voire simplistes : "le désir c’est toujours le désir de l’autre" signifie d’abord la compétition, l’envie, la concurrence : je veux ça parce que toi tu veux ça, tant que tu voudras ça, je le voudrai aussi, ce qui confère a priori sa désirabilité à un objet, c’est que quelqu’un d’autre le veuille ; l’objectif final est ici la négation de l’Autre (ce qui in fine ferait perdre toute valeur à l’objet, mais c’est précisément le paradoxe du désir envisagé du point de vue masculin).

Du côté féminin, "le désir est toujours le désir de l’Autre" s’entend plutôt : ce que je désire, je le désire à travers l’autre, à la fois dans le sens de: "laisser le soin à l’autre de le faire, posséder et jouir pour moi..." (mon mari, mon fils, mon amour, qui réussissent pour moi...) ; et aussi dans le sens de "mon désir est ce qu’il désire, la satisfaction de son désir comblera mon désir..." (Antigone, par exemple, qui désire satisfaire au désir de l’Autre en accomplissant le rituel funéraire pour son frère...)

La thèse qui en découle: que l’homme tendrait à agir directement en assumant son acte, tandis qu’une femme préfère agir par procuration, laissant l’autre faire à sa place (ou manipulant l’autre pour qu’il fasse...) peut apparaître ici comme un cliché donnant corps à la fameuse image de la femme dissimulée derrière chaque homme qui agit...

Et si pourtant ce cliché éculé était malgré tout ce qui pointe le plus sûrement vers la nature originellement féminine de la notion même de sujet ?

Et si le geste constitutif du sujet émergeant de sa gangue subjective n’était pas cette forme revendiquée d’autonomie de "faire quelque chose", mais bien plutôt la substitution primordiale qui laisse l’Autre faire pour moi, à ma place ?

Les femmes, bien plus que les hommes, ont cette capacité de "jouir par procuration", éprouver une intense satisfaction dans la conscience aiguë que leur "bien-aimé" jouit ou réussit d’une manière ou d’une autre à atteindre ses buts.

En ce sens précis, la "ruse de la raison" hégélienne repose sur la nature constitutivement féminine de ce que Hegel a appelé "raison".

La raison qui se cache tout en se réalisant elle-même dans l’apparente confusion des motifs et des actes égoïstes apparaît donc comme une variante hegelienne de la célèbre formule: "Cherchez la femme!", nous permettant ainsi de restituer sa complexité originelle à l’opposition courante entre l’homme "actif" et la femme "passive" ; la femme peut bien continuer à paraître passive tout en étant réellement active à travers l’Autre, tandis que l’homme peut bien se montrer actif alors qu’en vérité, il subit sa passivité, déniée, à travers l’Autre...

Auteur: Dubuis Santini Christian

Info:

[ mimétisme ] [ mâles-femelles ] [ femmes-par-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

langages comparés

Voici quelques généralisations pas nécessairement très exactes, mais qui donnent un aperçu de ce que les bots synthétisent sur le sujet en début de l'an 2024.  Sont ici recensées certaines perceptions d'ensemble et d'habitudes, surtout émergentes par comparaisons, de quelques uns parmi les grands idiomes humains.

Le Latin est une langue flexionnelle*, ce qui signifie que les mots changent de forme pour indiquer leur rôle dans la phrase, Le latin est consdéré comme l'idiome de l'analyse. De plus en tant que langue classique, il est souvent associé à la rigueur et à la précision. Langue des philosophes, des savants et des juristes de l'Antiquité, le latin est perçu comme une langue qui favorise la pensée et la formulation précise des idées.

Le mandarin, en raison de la complexité de ses caractères et de sa riche histoire, est souvent associé à la sagesse et à la tradition. La culture chinoise est également réputée pour son importance accordée à la famille et à la communauté. C'est aussi une langue agrégative qui combine des mots pour former des expressions complexes, ce qui reflète la vision du monde chinoise comme un système interconnecté.

L'hindi est un langage doté d'un riche vocabulaire pour décrire les émotions fortes, telles que l'amour, la joie et la tristesse. Elle est également associée à la famille et à la communauté, qui sont des valeurs importantes dans la culture indienne. En plus de ces caractéristiques, l'hindi a également un riche vocabulaire pour décrire la spiritualité. La langue est souvent utilisée pour exprimer des concepts tels que la religion, la méditation et la conscience.

La langue japonaise est souvent associée à la politesse, à la précision et à une riche culture traditionnelle. Les différents niveaux de politesse dans la langue reflètent les nuances importantes dans les interactions sociales. Pays du surmoi selon Michel Onfray.

L'allemand est connu pour sa précision et sa structure grammaticale complexe, l'allemand est souvent associé à la technologie, à l'ingénierie et à la rigueur. C'est aussi la langue des dresseurs, probablement du à ses intonations gutturales. La culture allemande a également une forte tradition philosophique.

L'arabe est souvent associé à une riche tradition poétique et littéraire, ainsi qu'à une profonde signification culturelle et religieuse. La calligraphie arabe est également considérée comme une forme d'art distincte. Mais cette langue possède surtout un riche vocabulaire pour exprimer l'amour via de nombreux mots différents pour en décrire toutes les nuances : l'amour romantique, l'amour familial, l'amour amical et l'amour divin et bien sur l'amour en général

Souvent considéré comme une langue pratique et polyvalente, l'anglais est utilisé dans des contextes variés, des affaires aux sciences en passant par la culture populaire. Il est souvent associé à la mondialisation et à une approche pragmatique de la communication. Il est simple et direct et a pour caractéristique un immense vocabulaire, du au fait qu'y sont rassemblés tant les termes de souches latines que ceux venant des langues saxonnes.

La langue espagnole est souvent associée à la passion, à l'expressivité et à une riche tradition artistique et littéraire. Elle est également largement parlée dans plusieurs pays d'Amérique latine, ce qui ajoute une diversité culturelle à son image.

Le français : souvent perçu comme une langue de raffinement et d'élégance, il est associé à la culture artistique, à la gastronomie et à la philosophie. Il est également considéré comme une langue de diplomatie. De plus la langue française a un système complexe de conjugaisons verbales ce qui peut aider ses locuteurs en terme de créativité.

L'idée selon laquelle chaque langue voit le monde différemment est liée au concept de relativité linguistique, également connu sous le nom de l'hypothèse de Sapir-Whorf. Cette théorie, très peu acceptée chez les linguistes, suggère que la structure d'une langue peut influencer la façon dont ses locuteurs pensent et perçoivent le monde qui les entoure. 

Ces généralisations sont évidemment à prendre avec tout le recul nécessaire.

Auteur: Internet

Info: Compil de Mg, avec bard et chatgpt, *langue dans laquelle de nombreux mots sont variables : ils changent de forme selon le contexte d'usage ou leur rapport grammatical aux autres mots dans une phrase

[ points de vue ] [ linguistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

FLP par soi-même

Nous-Je, humains bipèdes de la 3e planète, sommes issus d'une tribu qui a développé des signes puis des langages - améliorés ensuite via diverses fixations sur supports - débuts d'une mémorisation externe, avec ensuite des processus de traductions - au final un corpus extra-communautaire qui se prolonge dans le temps. Corpus qui n'est qu'un simple codage consensuel des représentations de notre réel humain, une réalité consensuelle anthropocentrique.

Vient la machine FLP.

En plus des règles incontournables d'insertions, d'une nécessaire compréhension du sens, alliée aux désambiguations sémantiques et étymologiques que permet le web, la méthodologie de FLP s'appuie sur quelques idées-fondations. Et un apriori audacieux. 

Les deux premières idées émanent de notre principal mentor, CS Peirce :

a) Un mot est quasi-esprit 

b) La triade priméité, secondéité, tiercité est incontournable. Elle permettra une approche pragmatique en cas de rencontre xénolinguistique (sous-entendu un langage alien, éventuellement auto-décrit et fixé sur support externe lui aussi.)

c) Notre apriori aventuré : la dualité du fonctionnement humain (principe du tiers exclus et autres développements boléens) atteint ses limites et conséquemment le fonctionnement tétravalent de l'atome du carbone (majeure ossature du développement de la vie telle que nous la connaissons) mérite une certaine attention quant aux possibilités logiques (sur base 4), et la souplesse des combinaisons qu'il propose. Une simple mise en parallèle des développements biologiques et leurs inouïes complexités taxonomiques entrelacées - par comparaison avec le langage et les idées humaines mélangées - nous donne idée de la pauvreté et de la simplicité de nos mots, idiomes et concepts... au regard, par exemple, des développements de l'arbre du vivant. Sans parler des incessantes avancées de l'épigénétique quantique - et autre trouvailles biophysiques, qui tendent à montrer que la frontière matériel-immatériel n'est pas "marquée", duale... formatés que nous sommes par des habitudes de catégorisations/classifications.

d) Les points précédents n'empêchent pas - et conduisent peut-être - vers une remise en question du rationalisme triomphant au regard de toutes les impuissances que ce dernier montre face à beaucoup de phénomènes classés dans les rubriques paranormales, parapsychique, voire pour dingo-lunatiques. Citons en vrac les placeb et nocebo, les prémonitions, Ufos, voyages astraux, l'inconscient, la télépahie, migration des âmes...  et autres phénomènes insaisissables que la science en pantoufle, bien installée dans des constructions longuement développées, a bien évidemment de la peine à aborder sereinement, c'est à dire sans se remettre profondément en question. 

e) Considérant que d'une certaine manière "tout est dans tout" et que l'unique approche communautaire humaine pour tenter de "mieux comprendre" son monde et qui nous sommes, se situe dans le langage. Considérant aussi que les divers idiomes des hommes - ici ramenés au français - apparaissent comme les meilleurs outils pour formuler et coder nos représentations de singes dépoilés (à l'instar des maths ou de la musique qui ne peuvent parler du langage) FLP, par les vertus de la technologie, se propose de sortir des taxinomies habituelles pour, à partir du mot simple et, dans un premiers temps, des combinaisons à deux ou trois items (mais on peut ici aller beaucoup plus loin),  proposer ce que nous nommons un "dictionnaire analogique intriqué".

Viennent alors les lectures exploratoires réflexives, personnelles, subjectives, dans ce nouveau biotope. Et puis une éventuelle participation, via l'insertion d'extraits, les discussions et propositions/modifications de tags-étiquettes... 

Enfin, avec un peu de pratique, s'offrent les possibilités de liaisons et de création de chaines pour les participants curieux, sujets quêteurs, joueurs... Qui, avec ces deux actions, pourront explorer certaines marottes personnelles, et commenceront non seulement à développer leurs propres Fils de pensées mais aussi, en précisant leur idée-intuition de départ, la contextualiseront mieux dans le corpus des mots et du langage en général. 

FLP est une forêt, avec une topologie multidimensionnelle. Beaucoup de ses sentiers s'y avéreront ardus, souvent trop longs, propices aux égarements, mais permettront parfois d'atteindre parfois certaine hauteurs bien agréables... Sans parler des chances de s'y retrouver coincé, arrêté par un cul-de-sac.

Auteur: Mg

Info: 4 août 2022

[ auto-arborescence ]

 

Commentaires: 0

Ajouté à la BD par miguel

complexité

Epigénétique. Sous ce nom, se cache un tremblement de terre qui fait vaciller la statue la plus emblématique du monde du vivant : le génome. Depuis un demi-siècle, l'ADN était considéré comme un coffre-fort protégeant les plans de l'être humain. Des instructions portées par un collier de 3 milliards de bases lues par d'infatigables nanomachines fabriquant nuit et jour des protéines. C'était trop simple ! "Il y a une deuxième couche d'informations qui recouvre le génome. C'est l'épigénome", résume Marcel Méchali de l'Institut de génétique humaine de Montpellier. En fait, le message génétique n'est pas gravé pour toujours dans les chromosomes. "Des protéines et des molécules viennent se greffer sur l'ADN de base et modifient sa lecture. Cela dépend de l'environnement, de l'air que vous respirez et peut-être même des émotions que vous ressentez à un moment donné. De plus, ces informations sont transmissibles d'une génération à l'autre", poursuit Marcel Méchali. Le poids des régulateurs Tout comme le cerveau, qui n'est pas tout à fait le même après la lecture d'un livre ou à la suite d'une conversation animée, l'ADN est une structure plastique. "Des jumeaux qui partagent le même génome ne réagissent pas de la même façon aux agressions extérieures ou aux médicaments", indique Marcel Méchali. En résumé, l'expression d'un gène varie au fil du temps, d'un individu à l'autre et même d'une cellule à sa voisine. Les experts résument la nouvelle donne d'une phrase : "Ce ne sont pas les gènes qui comptent, mais les facteurs qui assurent leur régulation." Ces régulateurs qui contestent le pouvoir des gènes sont innombrables et souvent inattendus. Des molécules, des protéines, des micro-ARN et même des "pseudo-gènes". "La lecture du génome s'effectue dans des usines à transcription. Elles sont très localisées, mais très riches au plan chimique", ajoute Peter Fraser du Babraham Institute de Cambridge en Angleterre. Guerre des sexes Ce concept remet en cause de très nombreux dogmes, à commencer par celui de la non-transmission des caractères acquis. Certains généticiens pensent ainsi qu'une partie de nos maladies, voire de nos comportements est la conséquence du mode de vie de nos grands-parents. Récemment, le chercheur britannique Marcus Pembrey a démontré, en réanalysant d'anciennes données épidémiologiques, que les préférences alimentaires de préadolescents suédois du début du siècle dernier ont influencé la santé de leurs descendants sur au moins deux générations. Ce chercheur très atypique est connu pour une formule qui résume bien la situation : "Il y a des fantômes qui rôdent dans nos gènes." Darwin et Lamarck vont se retourner dans leur tombe en entendant ces discours, qui brouillent les frontières entre l'inné et l'acquis. Dans ce contexte, les chercheurs s'intéressent aux premiers instants qui suivent la fécondation de l'ovocyte par un spermatozoïde. Une question taraude la communauté scientifique : comment l'ovule décide-t-il d'être un XX (femme) ou un XY (homme) ? En d'autres termes, quand démarre la guerre des sexes ? A l'Institut Curie à Paris, Edith Heard, spécialiste de la biologie du développement, s'intéresse aux mécanismes d'inactivation du chromosome X chez les mammifères. Elle répond simplement à cette question : "Dès les premiers jours." Là encore, ce sont des facteurs aléatoires qui lancent les dés de la sexualité. En fait, ce sont des collisions entre des molécules dans les toutes premières cellules qui font de l'homme un Mozart ou une Marilyn Monroe."C'est la loi du hasard", résume Edith Heard. Minuscules mais puissants Reste enfin la question qui tue. Pourquoi l'homme et le chimpanzé, qui partagent plus de 99 % de leurs gènes, sont-ils si différents l'un de l'autre ? Certains chercheurs, comme l'Américaine Katherine Pollard, se sont lancés dans la quête du "gène de l'humanité" pour l'instant introuvable. D'autres voient dans ces différences la confirmation que ce ne sont pas les gènes qui comptent, mais toutes leurs variations. En réalité, la cellule est un indescriptible chaos. Elle contient, entre autres, des centaines de minuscules fragments d'ARN d'une puissance extravagante. Ils sont capables de bloquer un gène 10.000 fois plus gros. Comme si une mouche posée sur le pare-brise du TGV Paris-Marseille interdisait son départ. Une chose est sûre, ce nouvel horizon de la biologie va générer des océans de données qu'il faudra stocker, analyser et interpréter. Un défi presque surhumain, qui conduira peut-être à la découverte du gène de l'obstination.

Auteur: Perez Alain

Info: les échos, 27,09,2010, La nouvelle révolution génétique

[ sciences ] [ hyper-complexité ] [ adaptation ]

 

Commentaires: 0

sciences

Notre intelligence s'exprime différemment de celle des générations précédentes.
Des tests d'intelligence qui donnaient des résultats moyens de 100 points dans les années 60 donnent aujourd'hui des résultats de 120. C'est ce que les spécialistes de l'intelligence appellent l'effet Flynn, du nom du politologue néo-zélandais James Richard Flynn, qui a remarqué, à la fin des années 70, une progression de trois à cinq points du quotient intellectuel (QI) par décennie. Le phénomène se serait poursuivi depuis, selon plusieurs autres études.
Les nouvelles générations ne sont pas plus intelligentes que les précédentes, Serge Larivée, professeur à l'École de psychoéducation de l'Université de Montréal nous dit : "Si c'était le cas, souligne-t-il, cela voudrait dire que la génération de nos grands-parents était constituée en grande partie de déficients intellectuels, ce qui est insensé aux yeux de l'histoire."
Dans un texte qui vient de paraitre dans la revue L'année psychologique, le professeur analyse avec ses collègues Carole Sénéchal (Université d'Ottawa) et Pierre Audy (UdeM) les paradoxes de l'effet Flynn.
Les différents chercheurs qui se sont penchés sur l'effet Flynn en ont attribué la cause à des facteurs culturels plutôt qu'à des changements d'ordre génétique. Parmi ces facteurs, mentionnons une scolarisation plus précoce et plus étendue, une plus grande familiarité avec les tests d'intelligence, l'urbanisation et l'industrialisation, les changements dans les attitudes parentales, l'amélioration de la santé grâce à de meilleurs soins et à une alimentation plus équilibrée ainsi que la prolifération de médias visuels de plus en plus complexes.
Mais ce n'est pas dans tous les types de tests d'intelligence que s'observe l'effet Flynn. L'effet est plus fort dans les habiletés visuospatiales (mesurées par les matrices de Raven) et dans les compétences logiques (mesurées par les échelles de Weschler), alors qu'il est plutôt faible dans les performances verbales et mathématiques.
"Nous serions plus doués que nos ancêtres quant au raisonnement abstrait et aux aptitudes visuospatiales, sans les dépasser pour autant dans d'autres aspects de l'intelligence", écrivent les auteurs dans une version vulgarisée de leur texte paru dans la revue Sciences humaines d'octobre dernier. Ce serait donc ces compétences visuelles et de logique qui seraient davantage sollicitées et développées par notre environnement culturel d'une complexité croissante. Autrement dit, notre intelligence s'exprime différemment sans que nous soyons nécessairement plus intelligents que les générations précédentes. Nos arrière-grands-parents avaient une intelligence plus pratique, nous avons une intelligence plus abstraite.
Mais cette explication qui attribue le développement du QI à des éléments culturels ne contredit-elle pas les études, notamment réalisées auprès de jumeaux identiques, qui imputent une bonne part du QI à la génétique?
La réponse à ce paradoxe est fort simple: les gènes ne produisent leur effet qu'à la faveur d'un environnement propice à leur actualisation. Ainsi, une personne qui dispose d'un avantage génétique relativement à une habileté particulière va rechercher un environnement stimulant où son potentiel génétique va pouvoir s'exprimer. Selon les chercheurs, l'effet multiplicateur qui s'ensuit est un facteur probable de l'effet Flynn.
L'effet Flynn n'est pas ailleurs pas illimité. "Deux parents qui ont des quotients intellectuels élevés n'engendreront pas un enfant attardé, mais la probabilité qu'ils aient un enfant doté d'un QI aussi élevé qu'eux est plutôt faible", affirme Larivée. Il y aurait ainsi un retour à la normale.
La théorie de l'effet combiné des gènes et de l'environnement nous dit aussi qu'un plateau est atteint lorsque l'environnement a livré tout son effet stimulant. On assiste d'ailleurs à une stabilisation du QI dans certains pays développés où les scores sont parmi les plus hauts. Des études montrent un ralentissement de la tendance, voire une stagnation, au Danemark et en Suède, alors que d'autres concluent même à un léger déclin en Angleterre et dans d'autres pays industrialisés.
Dans les pays où le QI moyen continue de croitre, c'est surtout au sein des classes les plus défavorisées qu'on observe une remontée. Serge Larivée y voit l'effet d'une éducation de qualité maintenant accessible à tous.
Si l'effet Flynn a atteint ses limites dans les pays développés, il commence à se faire sentir dans les pays en voie de développement, notamment dans certains pays africains comme le Kenya et le Soudan.
Pour le professeur, il s'agit de bonnes nouvelles. "Cela signifie que l'écart entre les plus doués et les moins doués s'amincit, de même qu'il se réduit entre les pays riches et les pays pauvres. Cela signifie aussi qu'un environnement stimulant peut bénéficier aux plus démunis.

Auteur: Baril Daniel

Info: fév. 2013

[ anthropologie ] [ société ] [ évolution ] [ descendances ]

 

Commentaires: 0