Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 124
Temps de recherche: 0.0557s

prospective FLP

Les listes furent parmi les premiers emplois, sinon le premier, quant à l'utilisation humaine de l'écriture comme outil communautaire. Elles avaient fonction d'inventaire, c'est à dire de faire un état des lieu des réserves dans un but de survie du groupe. C'est dire si ces signes alignés sur un mur de pierre avaient une réalité, une durabilité, en eux - signifiés avec signifiants en béton. Ces marques "pour mémoire" portaient donc une réelle valeur de conservation temporelle et ce qui était ainsi catégorisé, mis dans un rayonnage, l'était pour plusieurs jours au moins.

Il semble assez clair que les milliers d'années  de développement du langage, en partie "sur support externe", déployement dans le temps qu'on résumera par foisonnement-accélération, (c'est à dire la virtualisation d'un réel qui restera à tout jamais la roche-mère des signes et idiomes), ont accentué un décalage. Une déconnection pas assez soulignée à notre sens.

La réalité, priméité source (clin d'oeil à C.S. Peirce), déformée par cet emballement, se retrouve du coup "distancié", superficialisée. Avec pour défaut central une déformation du TEMPS sémantique dans sa valeur anthropique (il n'en a pas d'autre d'ailleurs, ah ah ah). C'est à dire que le fonctionnement biologique du primate humain reste beaucoup plus proche du réel sumérien, alors que son "réel projeté" actuellement par le langage (pour les images c'est pire) s'est accéléré/complexifié. 

L'idée sur laquelle nous voulons insister est celle d'une déconnexion entre mots/phrases consensuels acceptés et leurs valeurs réelles en terme de signification/classification - le temps des hommes s'écoulant. Nous considérons que les qualités sémantiques actuelles n'ont plus le poids et la durabilités qui étaient les leurs jadis, que ce soit il y a 200, 500, ou 5000 ans.

Faut-il tenter de l'expliquer mieux, pour que les gens acquiérent un certain recul ? Faut-il clarifier/consolider les dictionnaires, thésaurus et autres définitions sémantiques actuelles ? Nous n'en savons rien. 

Nous voulons juste pointer sur ceci : "il y a un déphasage, un manque de sagesse, à ne pas prendre en compte ce constat, à savoir que les significations des mots et des expressions, elles-mêmes issues d'habitudes de rangements avec base durable en arrière-plan, méritent qu'on se ré-attarde dessus". 

Il faut préciser et sans cesse repréciser leurs sens, dans leurs contextualisations bien sûr. Avec deux a priori : 

a) Une volonté de ralentir le plus possible la précipitation de la pensée, c'est à dire en réfrénant les pulsions "pousse-à-jouir" de nos organismes, que la clinquante pub capitaliste ne s'est pas gênée d'exploiter à mort, et les routines de langages inhérentes - qui pensent à notre place - et nous amènent à dégueuler des avis "sans réfléchir". 

b) Toute classification doit être considérée comme éphémère/transitoire, puisque toujours établie en fonction d'un objectif : se justifier, expliquer, définir, raconter, etc...

Poussant cette idée plus avant FLP s'imagine un développement permettant de présenter n'importe quel concept/extrait (ou une base de 2 ou plusieurs mots/termes ou autre) via une résentation planétoïde de ses tags/catégories. C'est à dire une sphère de corrélats (convexe ou concave, c'est à voir), qu'on pourra faire pivoter à loisir, à la surface de laquelle il sera également possible de déplacer et agencer chaque mot-corrélat en fonction des autres afin de modifier-orienter-préciser l'ordre des termes, ou les résultats, d'une recherche. Chacune de ces dispositions globulaire "catégorie-corrélats" pouvant aussi être mémorisée par l'utilisateur selon ses convenances, afin, par exemple, de la comparer avec d'autres extraits/écrits/concepts via leur présentations globulaires de corrélats... voire même avec certaines situations/contextualisations - imaginaires ou pas - pareillement bien fixées/précisées.

Ainsi sera-il peut-être possible de déceler certaines similitudes entre topologies sémantiques complexes (toujours via leurs dispositions planétoïdes) et ainsi débuter ce que nous nommerons "recueil atemporel comparé d'intrication sémantiques complexes." 

C'est ici que, peut-être, appaitrons des analogies entre langage et biologie... Ou autre.

Auteur: Mg

Info: début août 2021

[ statistiques linguistiques ] [ pré-mémétique ] [ réidentification ] [ tétravalence ]

 
Commentaires: 16
Ajouté à la BD par miguel

prospective

Le langage est dangereux dans la mesure où il permet de tout justifier, de tout expliquer... de se perdre, de fuir... D'enfumer les personnes moins au fait d'armes rhétoriques qui, suite à l'arrivée de La Bombe, sont devenues plus agissantes et importantes que le métal qui coupe et transperce ou le fusil qui tue à distance. 

Vue sous cet angle l'opinion est comme une femme, une fois son esprit capté, ou mieux, son âme formatée, le gros du travail est fait. Pour autant qu'on assure un minimum d'affection et de confort ensuite. (Non, stop, pitié...   arrêtez de cogner les filles, on peut inverser  ou mélanger les genres ici)

Nous sommes dans la continuelle bascule de notre évolution collective, à un point où expression abstraite et théorie ont pris le pas sur une pratique brutale ensuite mise en mots. 

Tout le monde sait la fragilité de l'édifice, il suffit d'imaginer une ville comme Paris sans approvisionnement pendant une semaine... Si ce système craque de manière générale ce sera l'enfer.

A l'heure d'une société de communication globale ce n'est pas pour rien que les "éléments de langages" sont devenus primordiaux. Réitérés ad infinitum (voir pour le Co-vid) ils montrent une fois encore l'importance décisive de l'information et de la création du consensus. Les politiques, Google, FB et  autres gouvernements/réseaux sociaux sont évidemment controlés par des gens au courant de celà. Il suffit d'une logique de base (le CO-vid ça tue) accompagnée d'une majorité d'éléments sémantiques qui vont dans ce sens, et le tour est joué. 

Nous autres mammifères glabres en équilibre sur deux membres sommes à un stade si peu avancé de développement qu'une simple logique duale, pulsionnelle binaire - celle qui sous-tend tous nos raisonnements et langages - est très aisée à orienter. 

Reste qu'il faudrait quand même parvenir à établir, peu ou prout, et au jour le jour si possible (en contact avec le réel donc), un minimum de cohérence au sein de cette triade : a) codage de la réalité par le langage, b) les pratiques/impacts d'humains qui sont organisés par lui. C) l'interaction avec le reste de la réalité qui en résulte - c'est à dire l'impact sur le reste de la vie sur terre pour être pragmatique. 

Je ne crois pas que l'humain soit au centre. 

Sauf pour lui-même, successivement conforté qu'il fut par des constructions sémantiques collectives établies par lui seul. Il s'est éloigné - en tant qu'espèce - d'une appartenance/collaboration globale avec les infinis développements de la vie - pour l'instant terrestre. (Lisez Kropotkine)

Certes on voit un sursaut actuellement, l'avenir s'assombrit, noirceur souvent confortée par des vieux (certains ne voient pas même qu'ils confondent/mélangent leur crépuscule singulier avec cet avenir inquiétant). Il y a donc place pour l'optimisme. 

Mais ce n'est pas assez, de beaucoup.

L'anthropocentrisme a mené où nous sommes, appuyé sur des fondements sémantiques, évidemment collectifs, sous-tendus par une hiérarchisation insensée. 

Comment imaginer un changement, une déviation de ceci ? 

Peut-être en refondant une grammaire de base où le "je", toujours humain, ou dominant (secondéité), puisse être mieux attribué et réparti dans ce qui fonde le codage du réel de notre civilisation humaine (tiercité anthropocentrique). Notre mémoire/réflexion - collective parce qu'externalisable comme ce court texte, est biaisée. 

Dans un univers où tout est information et interactions il y a clairement, sur ce point précis, un déficit structurel, un déséquilibre interne au sein de la monade humaine qui, s'il n'est pas corrigé, l'empêchera de s'intégrer correctement au reste du cosmos. 

Il faut reconsidérer cette manière de développer un réel consensuel, le nôtre, sur une base linguistique qui semble montrer ses limites. 

Ce réel humano-centré "accepté et construit ensemble" ne pourra être modifié qu'avec une remise en question profonde, je dirais même mieux : radicale.

Auteur: Mg

Info: 13 août 2020

[ science-fiction ] [ anticipation ] [ nouveau paradigme ] [ mémétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Quand la plupart des gens pensent aux risques potentiels de l'intelligence artificielle et du machine learning, leur esprit va immédiatement vers "Terminator" - cet avenir où les robots, selon une vision dystopique, marcheraient dans les rues en abattant tous les humains sur leur passage.

Mais en réalité, si l'IA a le potentiel de semer le chaos et la discorde, la manière dont cela peut se produire est moins excitante qu'un "Skynet" réel. Les réseaux d'IA qui peuvent créer de fausses images et de fausses vidéos - connues dans l'industrie sous le nom de "deepfakes" - impossibles à distinguer du réel, qui pourraient engendrer des risques.

Qui pourrait oublier cette vidéo du président Obama ? Inventée et produite par un logiciel d'intelligence artificielle, une vidéo quasi impossible à distinguer de vraies images.

Eh bien, dans une récente présentation des capacités de l'IA dans un avenir pas si lointain, un chroniqueur de TechCrunch a mis en avant une étude présentée à une conférence importante de l'industrie en 2017. Les chercheurs y expliquent comment un réseau d'opposition générationnelle (Generative Adversarial Network) - l'une des deux variétés courantes d'opérateur de machine learning - a résisté aux intentions de ses programmeurs et a commencé à produire des cartes synthétiques après avoir reçu l'ordre de faire correspondre des photographies aériennes aux cartes routières correspondantes.

L'objectif de l'étude était de créer un outil permettant d'adapter plus rapidement les images satellites aux cartes routières de Google. Mais au lieu d'apprendre à transformer les images aériennes en cartes, l'opérateur de machine learning a appris à coder les caractéristiques de la carte sur les données visuelles de la carte topographique.

L'objectif était de permettre à l'opérateur d'interpréter les caractéristiques de l'un ou l'autre type de carte et de les faire correspondre aux caractéristiques de l'autre. Mais ce sur quoi l'opérateur était noté (entre autres choses), c'était la proximité de correspondance d'une carte aérienne par rapport à l'original et la clarté de la carte topographique.

Il n'a donc pas appris à faire l'une à partir de l'autre. Il a appris à coder subtilement les caractéristiques de l'une dans les "modèles de bruit" de l'autre. Les détails de la carte aérienne sont secrètement inscrits dans les données visuelles réelles de la carte des rues : des milliers de petits changements de couleur que l'œil humain ne remarquera pas, mais que l'ordinateur peut facilement détecter.

En fait, l'ordinateur est si bon à glisser ces détails dans les plans qu'il a appris à encoder n'importe quelle carte aérienne dans n'importe quel plan de rues ! Il n'a même pas besoin de faire attention à la "vraie" carte routière - toutes les données nécessaires à la reconstitution de la photo aérienne peuvent être superposées sans danger à une carte routière complètement différente, comme l'ont confirmé les chercheurs :

Cette pratique d'encodage des données en images n'est pas nouvelle ; il s'agit d'une science établie appelée stéganographie, et elle est utilisée tout le temps pour, disons, filigraner des images ou ajouter des métadonnées comme les réglages de caméra. Mais un ordinateur qui crée sa propre méthode stéganographique pour éviter d'avoir à apprendre à exécuter la tâche à accomplir c'est plutôt nouveau.

Au lieu de trouver un moyen d'accomplir une tâche qui dépassait ses capacités, l'opérateur de machine learning a développé sa propre méthode pour tricher.

On pourrait facilement prendre cela comme un pas vers l'idée "les machines deviennent plus intelligentes", mais la vérité est que c'est presque le contraire. La machine, qui n'est pas assez intelligente pour faire le travail difficile de convertir ces types d'images sophistiqués les unes avec les autres, a trouvé un moyen de tricher que les humains ont de la peine à détecter. Cela pourrait être évité avec une évaluation plus rigoureuse des résultats de l'opérateur, et il ne fait aucun doute que les chercheurs vont poursuivre dans cette voie.

Et même si ces chercheurs sophistiqués ont failli ne pas le détecter, qu'en est-il de notre capacité à différencier les images authentiques de celles qui fabriquées par simulation informatique ?

Auteur: Internet

Info: Zero Hedges 4 janvier 2018

[ vrai du faux ]

 

Commentaires: 0

Ajouté à la BD par miguel

captage de l'attention

Sur le plan linguistique, précisons aussi, à la suite de C. Schnedecker (2011 : 23-45) faisant un état de la question, que la saillance peut se manifester de façon formelle ou "ontologique" (par le biais de la disposition typographique ou de la prosodie, par exemple), mais aussi de façon cognitive, faisant alors appel à la sémantique lexicale ou à des facteurs discursifs (ces derniers étant hétérogènes).

Cette linguiste distingue en outre une saillance perspectivale, reposant sur un principe d’iconicité puisque l’ordre des unités grammaticales (et donc l’agencement syntaxique) est supposé refléter ce qui est au premier plan, ou encore à l’arrière-plan, dans la perspective du locuteur. Notons que la notion de saillance ontologique est associée à des acceptions différentes selon les auteurs : parfois relative au statut conféré aux mots eux-mêmes (comme le rappelle C. Schnedecker), elle est par ailleurs considérée comme liée aux éléments extralinguistiques ou, du moins, aux concepts qui leur sont associés, et tel est notamment le cas chez H.-J. Schmid (2007 : 120).

Concernant la saillance liée aux paramètres syntaxiques, on rappellera l’importance des travaux de R. W. Langacker (1991 : 301). L’auteur mentionne l’importance des rôles syntaxiques, soulignant que le sujet, tout d’abord, puis l’objet, sont perçus comme les éléments les plus saillants (focal participants) d’une proposition. Ils sont en outre à relier à l’opposition trajector/ landmark (1987 : 217) traduisant le fait qu’un élément est mis davantage en avant (rôle de trajector) que les autres. Ces notion de trajector et landmark peuvent en outre être perçues comme des manifestations spécifiques de ce que L. Talmy (2000 : 311-44) appelle figure et ground, sachant que le premier terme réfère à l’élément le plus saillant, qui se détache sur un fond (désigné par ground). Selon cet auteur également, ce sont les structures grammaticales qui contrôlent la distribution de l’attention portée aux différentes entités présentes.

En lien avec son rôle syntaxique, le rôle sémantique d’une entité est également déterminant, comme l’avait déjà montré C. Fillmore (1968 ; 1977 : 78). Dans la lignée de la grammaire générative et transformationnelle, Fillmore applique la notion de cas aux structures profondes qui se voient réalisées syntaxiquement en structure de surface. Il propose ainsi une base sémantique et universelle des rôles thématiques. Selon l’auteur, il existe une hiérarchie de pertinence en ce qui concerne la sélection des rôles, concernant celui de sujet notamment. Cette hiérarchie peut être représentée ainsi : agent > instrument > patient.

Si l’événement met en scène un agent, celui-ci sera réalisé en position de sujet. S’il n’y a pas d’agent, ce sera l’instrument, ou encore le patient si l’instrument n’est pas réalisé. La grammaire des cas prévoit donc une correspondance relative entre les rôles sémantiques (profonds) et les réalisations syntaxiques (de surface). Notons par ailleurs que la relation entre cette hiérarchie liée aux cas et la notion de saillance est établie par l’auteur, qui évoque une hiérarchie en termes de saillance (salience hierachy, Fillmore 1977 : 78).

Ainsi, les agents jouent clairement les rôles les plus saillants, du moins lorsque les processus sont dynamiques. Sur le plan lexical, par ailleurs, D. Geeraerts (2000 : 90) fournit plus récemment une étude très détaillée de la saillance liée à la sélection du lexique, au cours de laquelle il distingue plusieurs sous-catégories : les formes de saillance perspectivale, sémasiologique, onomasiologique et structurelle.

La première, à savoir la saillance perspectivale, est relative à des paires terminologiques (ex : hand / arm) qui traduisent une hiérarchie pouvant se dessiner dans l’extralinguistique entre le premier plan et le fond. La saillance sémasiologique concerne les relations entre les différentes possibilités sémantiques d’un item lexical donné, certaines valeurs étant plus centrales et prototypiques que d’autres. Si l’on considère maintenant la saillance onomasiologique liée à une certaine catégorie lexicale, elle correspond à la fréquence de l’élément lexical nommant cette catégorie, par contraste avec les autres valeurs sémantiques éventuellement associées à cet item lexical. Enfin, la saillance structurelle est relative à des traits sémantiques récurrents dans la structure du lexique (et pouvant donner lieu à la formation de termes par affixation). L’objectif de l’étude de Geeraerts est, en somme, de déterminer les paramètres responsables des choix lexicaux préférentiels des locuteurs.

Auteur: Pennec Blandine

Info: https://journals.openedition.org/anglophonia/258

[ marketing ] [ linguistique informatisée ] [ secondéité ] [ tiercité ]

 

Commentaires: 0

Ajouté à la BD par miguel

prière

On peut donc regarder chaque collectivité comme disposant, en outre des moyens d’action purement matériels au sens ordinaire du mot, c’est-à-dire relevant uniquement de l’ordre corporel, d’une force d’ordre subtil constituée en quelque façon par les apports de tous ses membres passés et présents, et qui, par conséquent, est d’autant plus considérable et susceptible de produire des effets d’autant plus intenses que la collectivité est plus ancienne et se compose d’un plus grand nombre de membres ; il est d’ailleurs évident que cette considération "quantitative" indique essentiellement qu’il s’agit bien du domaine individuel, au delà duquel elle ne saurait plus aucunement intervenir. Chacun des membres pourra, lorsqu’il en aura besoin, utiliser à son profit une partie de cette force, et il lui suffira pour cela de mettre son individualité en harmonie avec l’ensemble de la collectivité dont il fait partie, résultat qu’il obtiendra en se conformant aux règles établies par celle-ci et appropriées aux diverses circonstances qui peuvent se présenter ; ainsi, si l’individu formule alors une demande, c’est en somme, de la façon la plus immédiate tout au moins, à ce qu’on pourrait appeler l’esprit de la collectivité (bien que le mot "esprit" soit assurément impropre en pareil cas, puisque, au fond, c’est seulement d’une entité psychique qu’il s’agit) que, consciemment ou non, il adressera cette demande. Cependant, il convient d’ajouter que tout ne se réduit pas uniquement à cela dans tous les cas : dans celui des collectivités appartenant à une forme traditionnelle authentique et régulière, cas qui est notamment celui des collectivités religieuses, et où l’observation des règles dont nous venons de parler consiste plus particulièrement dans l’accomplissement de certains rites, il y a en outre intervention d’un élément véritablement "non-humain", c’est-à-dire de ce que nous avons appelé proprement une influence spirituelle, mais qui doit d’ailleurs être regardée ici comme "descendant" dans le domaine individuel, et comme y exerçant son action par le moyen de la force collective dans laquelle elle prend son point d’appui. Parfois, la force dont nous venons de parler, ou plus exactement la synthèse de l’influence spirituelle avec cette force collective à laquelle elle s’"incorpore" pour ainsi dire, peut se concentrer sur un "support" d’ordre corporel, tel qu’un lieu ou un objet déterminé, qui joue le rôle d’un véritable "condensateur", et y produire des manifestations sensibles, comme celles que rapporte la Bible hébraïque au sujet de l’Arche d’Alliance et du Temple de Salomon ; on pourrait aussi citer ici comme exemples, à un degré ou à un autre, les lieux de pèlerinage, les tombeaux et les reliques des saints ou d’autres personnages vénérés par les adhérents de telle ou telle forme traditionnelle. C’est là que réside la cause principale des "miracles" qui se produisent dans les diverses religions, car ce sont là des faits dont l’existence est incontestable et ne se limite point à une religion déterminée ; il va sans dire, d’ailleurs, que, en dépit de l’idée qu’on s’en fait vulgairement, ces faits ne doivent pas être considérés comme contraires aux lois naturelles, pas plus que, à un autre point de vue, le "supra-rationnel" ne doit être pris pour de l’"irrationnel". En réalité, redisons-le encore, les influences spirituelles ont aussi leurs lois, qui, bien que d’un autre ordre que celles des forces naturelles (tant psychiques que corporelles), ne sont pas sans présenter avec elles certaines analogies ; aussi est-il possible de déterminer des circonstances particulièrement favorables à leur action, que pourront ainsi provoquer et diriger, s’ils possèdent les connaissances nécessaires à cet effet, ceux qui en sont les dispensateurs en raison des fonctions dont ils sont investis dans une organisation traditionnelle. Il importe de remarquer que les "miracles" dont il s’agit ici sont, en eux-mêmes et indépendamment de leur cause qui seule a un caractère "transcendant", des phénomènes purement physiques, perceptibles comme tels par un ou plusieurs des cinq sens externes ; de tels phénomènes sont d’ailleurs les seuls qui puissent être constatés généralement et indistinctement par toute la masse du peuple ou des "croyants" ordinaires, dont la compréhension effective ne s’étend pas au-delà des limites de la modalité corporelle de l’individualité.

Auteur: Guénon René

Info: Dans "Aperçus sur l'initiation", Éditions Traditionnelles, 1964, pages 166-168

[ grâce ] [ communion des saints ] [ mode d'action ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

particules élémentaires

Les imprévisibles effets de l'interaction forte continuent de surprendre les physiciens

Après plus d'un siècle de collision de particules, les physiciens ont une assez bonne idée de ce qui se passe au cœur de l'atome. Les électrons bourdonnent dans des nuages probabilistes autour d'un noyau de protons et de neutrons, chacun contenant un trio de particules bizarres appelées quarks. La force qui maintient tous les quarks ensemble pour former le noyau est la force forte, la bien nommée. C'est cette interaction forte qui doit être surmontée pour diviser l'atome. Et cette puissante force lie les quarks ensemble si étroitement qu'aucun quark n'a jamais été repéré en solo.

Ces caractéristiques des quarks, dont beaucoup peuvent être expliquées dans un cours de sciences au lycée, ont été établies comme des faits expérimentaux. Et pourtant, d'un point de vue théorique, les physiciens ne peuvent pas vraiment les expliquer.

Il est vrai qu'il existe une théorie de la force forte, et c'est un joyau de la physique moderne. Elle se nomme chromodynamique quantique (QCD), " chromo " faisant référence à un aspect des quarks appelé poétiquement " couleur ". Entre autres choses, la QCD décrit comment la force forte s'intensifie lorsque les quarks se séparent et s'affaiblit lorsqu'ils se rassemblent, un peu comme une bande élastique. Cette propriété est exactement à l'opposé du comportement de forces plus familières comme le magnétisme, et sa découverte dans les années 1970 a valu des prix Nobel. D'un point de vue mathématique, les quarks ont été largement démystifiés.

Cependant, les mathématiques fonctionnent mieux lorsque la force entre les particules est relativement faible, ce qui laisse beaucoup à désirer d'un point de vue expérimental. Les prédictions de la CDQ furent confirmées de manière spectaculaire lors d'expériences menées dans des collisionneurs qui rapprochèrent suffisamment les quarks pour que la force forte entre eux se relâche. Mais lorsque les quarks sont libres d'être eux-mêmes, comme c'est le cas dans le noyau, ils s'éloignent les uns des autres et exercent des pressions sur leurs liens de confinement, et la force forte devient si puissante que les calculs stylo papier sont mis en échec. Dans ces conditions, les quarks forment des protons, des neutrons et une multitude d'autres particules à deux ou trois quarks, généralement appelées hadrons, mais personne ne peut calculer pourquoi cela se produit.

Pour comprendre les bizarreries dont les quarks sont capables, les physiciens ne peuvent que lancer des simulations numériques de force brute (qui ont fait des progrès remarquables ces dernières années) ou regarder les particules ricocher dans de bonnes expériences de collisionnement à l'ancienne. Ainsi, près de 60 ans après que les physiciens aient formalisé le quark, la particule continue de surprendre.

Quoi de neuf et digne de mention

Pas plus tard que l'été dernier, la collaboration du LHCb au Grand collisionneur de hadrons en Europe a repéré des signes de deux variétés jusqu'alors inédites de quarks, les tétraquarks, furtivement observés à travers les tunnels souterrains du collisionneur. Cataloguer la diversité des comportements des quarks aide les physiciens à affiner leurs modèles pour simplifier les complexités de la force forte en fournissant de nouveaux exemples de phénomènes que la théorie doit rendre compte.

Les tétraquarks ont été découverts pour la première fois au LHC à l'été 2014, après plus d'une décennie d'indices selon lesquels les quarks pourraient former ces quatuors, ainsi que des groupes de deux ou trois. Cette découverte a alimenté un débat qui s'est enflammé malgré une question apparemment ésotérique: faut-il considérer quatre quarks comme une "molécule" formée de deux hadrons doubles quarks faiblement attirés connus sous le nom de mésons, ou s'assemblent-ils en paires plus inhabituelles connues sous le nom de diquarks?

Au cours des années qui suivirent, les physiciens des particules accumulèrent des preuves de l'existence d'une petite ménagerie de tétraquarks exotiques et de " pentaquarks " à cinq quarks. Un groupe se détacha en 2021, un tétraquark " à double charme " qui vécut des milliers de fois plus longtemps que ses frères exotiques (à 12 sextillionièmes de seconde comme le Methuselah). Il a prouvé qu'une variété de quark — le quark charme — pouvait former des paires plus résistantes que la plupart des suppositions ou des calculs minutieux l'avaient prédit.

À peu près à la même époque, les chercheurs ont mis au point une nouvelle façon de tamiser le maelström qui suit une collision proton-proton à la recherche d'indices de rencontres fortuites entre des composites de quarks. Ces brefs rendez-vous permettent de déterminer si un couple donné de hadrons attire ou repousse, une prédiction hors de portée du QCD. En 2021, les physiciens ont utilisé cette technique de "femtoscopie" pour apprendre ce qui se passe lorsqu'un proton s'approche d'une paire de quarks " étranges ". Cette découverte pourrait améliorer les théories sur ce qui se passe à l'intérieur des étoiles à neutrons.

L'année dernière, les physiciens ont appris que même les quarks de l'atome d'hélium, très étudié, cachent des secrets. Les atomes d'hélium dénudés ont inauguré le domaine de la physique nucléaire en 1909, lorsque Ernest Rutherford (ou plutôt ses jeunes collaborateurs) les projeta sur une feuille d'or et découvrit le noyau. Aujourd'hui, les atomes d'hélium sont devenus la cible de projectiles encore plus petits. Au début de l'année 2023, une équipe a tiré un flux d'électrons sur des noyaux d'hélium (composés de deux protons et de deux neutrons) et a été déconcertée de constater que les cibles remplies de quarks gonflaient bien plus que ce que la CDQ leur avait laissé supposer.








Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 19 fev 2024

[ fermions ] [ bosons ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

magouilles

Industrie du médicament : "J'ai vendu mon âme au diable"

John Virapen, 64 ans, livre le récit de son parcours dans l'industrie pharmaceutique. Une confession professionnelle peu ordinaire. John Virapen, ancien directeur de la firme Eli Lilly en Suède, a rédigé dans sa soixante-quatrième année une confession professionnelle peu ordinaire.

"Depuis des années parfois aux premières heures du jour des silhouettes fantomatiques m’apparaissent en rêve, écrit-il en préambule. Elles se tapent la tête contre les murs ou s’entaillent les bras et la gorge a coups de rasoir. J’ai maintenant compris que j’avais indirectement contribué a la mort de personnes dont les ombres me hantent.

Je n’ai évidemment tué personne directement, mais aujourd'hui je ne peux pas ne pas me sentir responsable en partie de ces morts. J’ai été un instrument, un exécutant, mais consentant, aux mains de l’industrie. […] J’ai été certes manipulé, mais sans me poser de questions. J’ai vendu mon âme au diable."

Le cas du Prozac
D’origine indoue et fils de pêcheur illettré de la Guyane britannique, l’auteur de ce mea culpa glaçant est entré dans l’industrie pharmaceutique, en 1968, par la toute petite porte. En acteur habile de ce qui ne s’appelle pas encore marketing, John Virapen est déjà en 1981 directeur des ventes de la firme Eli Lilly pour la Suède.

Il raconte les petits pactes inavouables qui se scellent dans ce milieu feutré, et la main mise des firmes sur les leaders d’opinion, ces grands professeurs renommés et gardiens de la doxa. Ainsi l’entre eux, spécialiste du traitement de la douleur et expert au ministère de la santé, recevait-il de Lilly un salaire fixe, moyennant conseil, relecture de brochures et autres conférences.

On faisait surtout appel à lui en cas d’attaque contre nos produits dans les médias, souvent à propos d’effets secondaires. Il écrivait immédiatement des articles en notre faveur dans les journaux médicaux. Le microcosme médical était rassuré, la grande presse n’en parlait plus."
En 1986, pour le lancement de la fluoxétine d’Eli Lily, molécule d’or baptisée Prozac qui sera jusqu’à expiration du brevet en 2001 l’antidépresseur le plus prescrit au monde, John Virapen va commettre ce qui le hante au petit matin : avoir aidé à promouvoir un médicament dont il connaissait –déjà- l’impact suicidaire (pour les effets secondaires réels des psychotropes, voir le site de veille sanitaire indépendant de David Healy, chercheur à l’université de Cardiff RxiSK.org) et dont la supériorité sur le placébo n’est toujours pas établie en 2014.

Mais pour l’heure, tandis qu’au siège on organise le plan com’ qui fera de la dépression une maladie couramment diagnostiquée dans tous les pays riches, les satrapes de Lilly s’affairent dans les capitales afin d’obtenir pour le Prozac une autorisation de mise sur le marché.

Comment des suicidés ont disparu
A Stockholm, John Virapen sait qu’un expert indépendant a été officiellement désigné pour émettre un avis. Le nom du professeur est confidentiel, pour tenir éloignés les lobbies justement. John Virapen veut savoir. Il n’y a dans toute la Suède que cinq experts psychiatres suffisamment qualifiés pour avoir été sollicité par l’Etat.

L’un fait partie des autorités de santé ; ça ne peut être lui. Pour les quatre autres, il va agir en profiler et demander à ses visiteurs médicaux de se renseigner, discrètement. Après quelques semaines de ce maillage discret, l’expert est repéré : c’est Pr Z., à Göteborg. "J’entrepris d’étudier le Pr Z. de plus près. Il aimait la voile. Je m’achetai un livre sur la voile." Virapen l’appelle, et parvient à l’inviter à dîner.

Un facteur a joué en ma faveur, je n’aimais pas le Pr Z, poursuit-il. Une réelle sympathie rend les manipulations plus difficiles. On n’aime pas piéger une personne qu’on apprécie. On ne veut pas obliger quelqu’un qu’on aime à franchir les frontières de la légalité. Le fait de ne pas aimer était donc un atout."
Un deuxième dîner va sceller leur entente. "L’argent est toujours utile", répond l’expert indépendant quand son hôte lui demande ce qui ferait accélérer son affaire. Le lendemain, Virapen appelle le bureau de Lilly à Copenhague, qui supervise les pays du Nord, explique qu’il faut 100.000 couronnes pour obtenir une autorisation rapide, soit 20.000 dollars. "Le bureau de Copenhague consulta celui de Genève. Cela prit 24 heures. Puis je reçus un appel :'John, faites tout ce qui vous semble nécessaire.'"

L’expertise du Dr Z. en fut quelque peu orientée. Dans le dossier initial, voici un exemple de ce qu’on pouvait lire : "Sur dix personnes ayant pris le principe actif, 5 eurent des hallucinations et firent une tentative de suicide dont 4 avec succès." A la place on lisait désormais : "Les 5 derniers ont présentés divers effets secondaires." Escamotés, les suicidés sous Prozac, au cours de la phase d’expérimentation.

Au dessus des lois ? Au dessus des Etats ?
Ce témoignage paraît un mois après celui de Bernard Dalbergue, ancien cadre de chez Merck ; un an après l’ouvrage de Julie Wasselin qui fut pendant trente ans visiteuse médicale; et dix ans après que Philippe Pignarre, ancien de chez Synthelabo et lanceur d’alerte avant l’heure, a publié "Le Grand secret de l’industrie pharmaceutique". Tous démontrent que la santé est depuis trente ans une affaire de business et de marketing sur fonds de désinformation aux conséquences criminelles.

La confession de John Virapen a été traduite par Philippe Even, qui poursuit ainsi un travail de recadrage entrepris en 2005, soit cinq ans avant le scandale Servier, avec sa traduction du livre Marcia Angell, rédactrice en chef démissionnaire du prestigieux "New England Journal of Medecine" (NEJM), "La vérité sur les compagnies pharmaceutiques".

Étrangement, ces révélations ne suscitent pas l’effroi et les révolutions qu’elles devraient. Comme si la pharmaco-délinquance était une fatalité, et l’industrie du médicament une organisation impossible à contrôler, au dessus des lois, au dessus des Etats.

Auteur: Crignon Anne

Info: Le Nouvel Observateur Publié le 18 avril 2014

[ big pharma ]

 

Commentaires: 0

Ajouté à la BD par miguel

science mystique

Science de l'ADN, ce que les chercheurs russes ont découvert de manière surprenante...

Des scientifiques russes pensent pouvoir reprogrammer l'ADN humain à l'aide de mots et de fréquences.

La science de l'ADN semble enfin expliquer des phénomènes auparavant mystérieux tels que la clairvoyance ... l'intuition ... la guérison mains libres ... la lumière et les auras "surnaturelles" ... et bien d'autres choses encore. Ces découvertes sont à mettre au crédit de chercheurs russes, qui se sont aventurés sur le terrain de l'ADN que les chercheurs occidentaux n'avaient pas envisagé. Les scientifiques occidentaux limitant leurs études aux 10 % de notre ADN responsables de la construction des protéines. Cela signifie qu'ils ont considéré les 90 % restants de l'ADN comme des "déchets" (junk).

AInsi, une équipe russe innovante, dirigée par le biophysicien et biologiste moléculaire Pjotr Garjajev, a refusé d'accepter qu'une si grande majorité de l'ADN puisse n'avoir aucune valeur pour la recherche. Pour percer les mystères de ce terrain inconnu, ils ont associé des linguistes à des généticiens dans le cadre d'une étude non conventionnelle visant à tester l'impact des vibrations et du langage sur l'ADN humain. Ce qu'ils ont découvert est tout à fait inattendu : notre ADN stocke des données comme le système de mémoire d'un ordinateur. De plus, notre code génétique utilise des règles de grammaire et une syntaxe qui reflètent étroitement le langage humain ! Ils ont également constaté que même la structuration des paires ADN-alcaline suit une grammaire régulière et des règles établies. Il semble que toutes les langues humaines soient simplement des verbalisations de notre ADN.

Modifier l'ADN en prononçant des mots et des phrases

Le plus étonnant, c'est que l'équipe a découvert que l'ADN humain vivant peut être modifié et réorganisé via des des mots et des phrases. La clé de la modification de l'ADN par des mots et des phrases réside dans l'utilisation de la bonne fréquence. Grâce à l'application de fréquences radio et lumineuses modulées, les Russes ont pu influencer le métabolisme cellulaire et même remédier à des défauts génétiques. L'équipe a obtenu des résultats incroyables en utilisant les vibrations et le langage. Par exemple, ils ont réussi à transmettre des modèles d'information d'un ensemble d'ADN vers un autre.

Ils ont même réussi à reprogrammer des cellules pour qu'elles adoptent un autre génome : ils ont transformé des embryons de grenouille en embryons de salamandre sans utiliser le moindre scalpel ou faire une seule incision. Les travaux des Russes prouvent scientifiquement pourquoi les affirmations et l'hypnose ont des effets si puissants sur les êtres humains. Notre ADN est intrinsèquement programmé pour réagir au langage.

Les enseignants ésotériques et spirituels le savent depuis longtemps. Toutes les formes d'affirmations et de "pouvoir de la pensée" découlent en partie de ce principe sous-jacent. La recherche russe permet également d'expliquer pourquoi ces techniques ésotériques n'ont pas le même succès pour tous ceux qui les utilisent. Étant donné qu'une "communication" claire avec l'ADN nécessite une fréquence correcte, les personnes dont les processus intérieurs sont plus développés seront plus à même de créer un canal de communication conscient avec l'ADN. Les personnes dont la conscience est plus développée auront moins besoin d'un quelconque appareil (pour appliquer des fréquences radio ou lumineuses). Les spécialistes de cette science pensent qu'avec la conscience, les gens peuvent obtenir des résultats en utilisant uniquement leurs propres mots et pensées.

ADN et intuition : Comment fonctionne l'"hypercommunication" et pourquoi l'homme pourrait être en mesure de la récupérer

Les scientifiques russes ont également trouvé une base ADN en rapport avec le phénomène de l'intuition - ou "hypercommunication". L'hypercommunication est le terme utilisé pour décrire les situations dans lesquelles une personne accède soudainement à des informations hors de sa base de connaissances personnelle. À notre époque, ce phénomène est devenu de plus en plus rare. Cela est probablement dû au fait que les trois principaux facteurs qui empêchent l'hypercommunication (le stress, l'anxiété et l'hyperactivité cérébrale) sont devenus très répandus. Pour certaines créatures, comme les fourmis, l'hypercommunication fait partie intégrante de l'existence quotidienne. Saviez-vous que lorsqu'une reine est physiquement retirée de sa colonie, ses sujets continuent à travailler et à construire selon le plan prévu ? En revanche, si elle est tuée, le but du travail des fourmis disparait et leur activité en ce sens s'arrête instantanément. Apparemment, tant que la reine est en vie, elle peut accéder à la conscience de groupe de sa colonie grâce à l'hypercommunication.

Maintenant que les Russes tentent de démêler les fondements biologiques de l'hypercommunication, les humains pourraient être en mesure de retrouver l'usage de cette compétence. Ils ont découvert que notre ADN peut produire des "vortex magnétisés". Ces vortex magnétisés sont des versions miniatures des ponts qui se forment près des étoiles en fin de vie (nommés ponts d'Einstein-Rosen). Les ponts d'Einstein-Rosen relient différentes zones de l'univers et permettent la transmission d'informations en dehors de l'espace et du temps. Si nous étions capables d'activer et de contrôler consciemment ces connexions, nous pourrions utiliser notre ADN pour transmettre et recevoir des informations du réseau de données de l'univers. Nous pourrions également entrer en contact avec d'autres participants au réseau. Les découvertes de la science et de la recherche russes sur l'ADN sont si révolutionnaires qu'elles paraissent vraiment incroyables. Pourtant, nous disposons déjà d'exemples isolés d'individus qui ont maîtrisé les techniques nécessaires, au moins à un certain niveau. Les personnes qui ont réussi à pratiquer la guérison à distance et la télépathie sont des exemples à prendre en considération. Selon de nombreuses personnes qui s'intéressent activement à ces recherches russes sur l'ADN, ces résultats reflètent les changements majeurs qui se produisent sur notre Terre, dans notre soleil et dans notre galaxie. Ces changements affectent l'ADN humain et élèvent la conscience d'une manière que nous ne comprendrons peut-être que dans un avenir lointain.   

Auteur: Internet

Info: https://undergroundhealthreporter.com, july 2023

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Attention ce texte implique plusieurs pensées croisées.

Comme chacun sait, nous sommes formatés par notre éducation, l'environnement et ainsi de suite. Un peu comme les phrases, chapitres... livres...  peuvent être les niveaux d'échelles qui structurent les mots et la pensée de nos langages et de la littérature.

Comment en sortir ? Ensemble peut-être.

En termes de "réflexion personnelle commune" il semble que l'humain est, de manière générale, limité au niveau de la phrase ou de la formule. Tout simplement parce que la survie le demande. Dans l'action animale le cause-effet de la situation se passe vite, trop vite pour que l'individu isolé puisse développer sa réflexion.

Maintenant les hommes, touchons du bois, sont semble-t'il passés au-delà de l'individu et de sa survie immédiate. Ils ont pris le temps de réfléchir, ils développent ; voilà les philosophes et... le langage. Et, grâce à Internet, il est devenu possible de le faire de manière collective. Même si d'aucuns avancent que le langage, forcément anthropocentrique, nous éloigne de fait de la nature matrice source, ce que nous pensons aussi.

Qu'est-ce alors qu'une intelligence ensemble ? Carl Friedrich von Weizsäcker donne un début de réponse.

"La raison pratique sert la perception de ses propres intérêts, La raison théorique profonde celle de l'intérêt général."

Au départ de cette compilation FLP nous nous intéressions aux formules courtes (disons 5 mots en moyenne). Ensuite sont venus des extraits plus longs plus "littéraires", un peu comme l'a écrit Claudio Magris :

"L'Histoire dit les événements, la sociologie décrit les processus, la statistique fournit les chiffres, mais c'est la littérature qui les fait toucher du doigt, là où ils prennent corps et sang dans l'existence des hommes."

C'est ainsi que le langage écrit, témoignage par les mots de la réalité humaine, est maintenant mis en "réflexivité collective" via les "likes" et autres remarques que proposent d'innombrables web spots. Avec ce site nous tentons donc d'aller un peu plus loin puisque nous faisons en sorte qu'il se nourrisse de citations (étiquetées) par les surfeurs, ajouts modérés avant leur publication.

Aussi, développement supplémentaire, les participants inscrits peuvent lier certaines citations, ce qui permet souvent de comparer différentes formulations de la même idée (équation ?) et de ses varations.

Plus avant FLP offre la possibilité de développer des "chaines", ("Oh les beaux enfants") et même des chaines collectives. Voilà comment les choses avancent depuis plusieurs années.

Résultat évident à ce stade de cette expérience collective : "Plus une pensée courte est populaire, plus elle tient de l'axiome. Plus elle est longue, plus elle témoigne de la singularité de son auteur." 

Récapitulons :

Les formules/extraits sont tagués sur deux niveaux :

1) tag-chapitre, "catégorie" supposé être le plus généraliste, ce qui est déjà délicat à définir ! Il y a déjà ici une piste que nous allons développer pour le tag chapitre "catégorie" : établir sa pertinence via une auto-modération des participants. Nous y reviendrons.

2) tag simple, qui précise et oriente.

Ici aussi tout un chacun peut demander à modifier un étiquetage dont la pertinence pourra être discutée via une modération pyramidale.

3) les auteurs sont intégrés à la base de donnée avec 6 paramètres séparés (qui rendent "plus intelligente" la BD" et permettent de préciser une recherche)

A ce stade des "Fils de la pensée" on incitera le participant a déjà s'amuser à faire des recherches en combinant tags, auteurs, longueurs, périodes historiques, etc., ce qui est déjà énorme et complexe, mais surtout lui donnera une idée de comment "répond" le système.

Il faut aussi savoir qu'il y eut rapidement besoin d'améliorer l'indexage, ce qui amena à créer des tags/concepts moins imprécis : fond-forme, causes-effets, homme-machine, femmes-hommes, théorie-pratique, etc. Et aussi ensuite d'utiliser des mots/tags qui n'existent pas en français, nommés et recensés ici comme "intraduisibles".

Malgré tout, même précisé, un mot-tag reste porteur de plusieurs sens (terme-carrefour, métonymie) et peut signifier tout et son contraire en fonction du contexte et de l'agencement des phrases.

Apparraissent alors ce que nous nommons "méta-tags", une troisième catégorie, un peu à l'image du terme "Livre" dans la hiérarchie d'une bibliothèque, apparitions répétées de certaines combinaisons de tags. Combinaisons qui délimitent mieux une réflexion dont le champ est précisé, s'affinant, quand tout va bien, au sens philosophique du terme, avec les collaborations des participants.

Ainsi s'est établie une liste de doublons ou de triplettes de tags-mots-concepts, pistes qui se sont dessinées par répétition des passages (sont-ils des équations ) . En voici quelques exemples.

mort - omniprésence

conclure - illusion

amour - temps

mauvaise nouvelle - efficacité

survie - éthique

musique - langage

réconfort - ordre

enfance - imagination

protéger - affaiblir

être humain - quête

lecture - miroir

non-voyant - témoignage

femmes-par-femmes - amour etc., etc...

Exemples de triplettes :

complexité - vie - bouillonnement

humain - animal - particulier

réveil - naitre - réintégration

mentir - fuite - beaux-arts

motivation - transgression - jeunesse etc., etc...

On pourra bien évidemment complexifier à loisir tout ce qui précède mais il vaut mieux faire ici une pause. Il semble que c'est d'abord en se mettant d'accord via une modération (des participants actuellement, pyramidale bientôt ?) sur la moins mauvaise pertinence des mots-tags-chapitres d'une formule-citation, que nous établirons une base commune, un peu plus solide et moins aléatoire, pour avancer.

Pour l'instant ce sont les chaines et, dans une moindre mesure, les citations liées, qui clarifient un peu plus un mot-idée-concept - ou une phrase.

Ensuite, une fois ce groupe de réflexion collective mis en place, pourra peut-être venir le temps d'établir des "méta-tags" selon des critères à définir. Mais là nous sommes dans de la musique d'avenir. Concluons par trois questions dont les réponses, possibles sujets-chaines au sein même d'un telle tentative de réflexion collective, nous semblent importantes.

- Peut-on mélanger et structurer nos pensées et nos échelles de pensées "ensemble" sans faire ressortir de froides et imbéciles statistiques d'une société de consommation productiviste ?

- Comment éviter que la technologie ne conduise l'homme à se spécialiser dans l'humain, mais au contraire à l'aider à développer sa sagesse-tolérance et son ouverture aux autres espèces vivantes pour qu'il tente de trouver une plus juste place dans la réalité ?

- Avec la disparition du travail, comment conserver une motivation forte chez les individus si la problématique de survie immédiate disparaît ?

Auteur: Mg

Info: 2012, 2013, 2014, 2015, 2016, 2017, 2021, 2022

[ quête ] [ classification ] [ structuration ] [ taxinomie ] [ ranger ] [ taxonomie ] [ langage consensus vs singularités biologiques ] [ objectivités vs subjectivités ]

 

Commentaires: 0