Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 92
Temps de recherche: 0.071s

déshumanisation technique

Ayant éliminé l’humain de la sphère de la production (robots, automates, algorithmes), les machines le remplacent dans sa reproduction. Comme dans tous les aspects de la vie 4.0, le progrès est implacable : toujours moins d’humain. Ce que la loi de bioéthique valide en autorisant les femmes à faire des enfants sans partenaire masculin. Comme s’en glorifie Anne, consultante en ressources humaines, à L’Obs : "J’ai fait ma petite fille toute seule, en Belgique." Alice, cinq ans, est sûrement fière d’avoir une maman si forte — Toute seule ! mais avec un laboratoire, des médecins, un traitement de stimulation ovarienne, un dispositif de fécondation in vitro. L’autonomie assistée par la technologie et l’expertise. L’indépendance, c’est la dépendance.

Le plus facile à évincer était le père. Son compte est réglé. Alice en réclame un, paraît-il, mais les générations futures auront oublié ce détail. Qui plus est, cette disparition s’opère au nom du droit, ce qui renforce la bonne conscience de ceux que leur standing politique préoccupe.

Puis il faut dire que ces accouplements à visée reproductrice étaient atrocement mammifères. Pensons aux religieuses et aux "a‑sexuelles", elles aussi victimes de "stérilité sociale" et privées de leur "liberté procréative" en raison de leur chasteté. Grâce à la technologie, elles pourront enfanter comme Marie et devenir des vierges augmentées.

D’après sociologues et gynécologues, les écrans éteignent la vie sexuelle. Selon une étude de l’université de Cambridge, les couples anglais ont 40 % de rapports sexuels de moins en 2010 qu’en 1990. À ce rythme, c’est fini en 2030. Aux États-Unis, les couples ont neuf fois moins de rapports sexuels dans les années 2010 que vingt ans avant, et les "Millenials" (nés après 1990) sont les plus touchés. La plupart reconnaissent consacrer plus de temps à leur smartphone qu’à leur partenaire. On le savait depuis les années soixante, la natalité baisse avec la télé. Avec Internet, le porno est à portée de vue permanente des adolescents. Selon les spécialistes, cela en détourne beaucoup de la sexualité avec des humains en chair et en os.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Alertez les bébés ! ", éditions Service compris, 2020, pages 74-75

[ recomposition parentale ] [ légalité du désir ] [ reproduction ] [ statistiques ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Frank Rosenblatt est surtout connu pour son Perceptron, un dispositif électronique construit selon des principes biologiques et doté d'une capacité d'apprentissage. Les perceptrons de Rosenblatt ont d'abord été simulés sur un ordinateur IBM 704 au Cornell Aeronautical Laboratory en 1957. Lorsqu'un triangle était placé devant l'œil du perceptron, celui-ci captait l'image et la transmettait le long d'une succession aléatoire de lignes aux unités de réponse, où l'image était enregistrée.

Il a développé et étendu cette approche dans de nombreux articles et dans un livre intitulé Principles of Neurodynamics : Perceptrons and the Theory of Brain Mechanisms, publié par Spartan Books en 1962. Le Perceptron lui a valu une reconnaissance internationale. Le New York Times l'a qualifié de révolution en titrant "New Navy Device Learns By Doing", et le New Yorker a également admiré l'avancée technologique.

Des recherches sur des dispositifs comparables étaient également menées dans d'autres endroits, comme le SRI, et de nombreux chercheurs attendaient beaucoup de ce qu'ils pourraient faire. L'enthousiasme initial s'est toutefois quelque peu estompé lorsqu'en 1969, Marvin Minsky et Seymour Papert ont publié le livre "Perceptrons", qui contenait une preuve mathématique des limites des perceptrons feed-forward à deux couches, ainsi que des affirmations non prouvées sur la difficulté d'entraîner des perceptrons à plusieurs couches. Le seul résultat prouvé du livre, à savoir que les fonctions linéaires ne peuvent pas modéliser les fonctions non linéaires, était trivial, mais le livre a néanmoins eu un effet prononcé sur le financement de la recherche et, par conséquent, sur la communauté. 

Avec le retour de la recherche sur les réseaux neuronaux dans les années 1980, de nouveaux chercheurs ont recommencé à étudier les travaux de Rosenblatt. Cette nouvelle vague d'études sur les réseaux neuronaux est interprétée par certains chercheurs comme une infirmation des hypothèses présentées dans le livre Perceptrons et une confirmation des attentes de Rosenblatt.

Le Mark I Perceptron, qui est généralement reconnu comme un précurseur de l'intelligence artificielle, se trouve actuellement au Smithsonian Institute à Washington D.C. Le MARK 1 était capable d'apprendre, de reconnaître des lettres et de résoudre des problèmes assez complexes.

Auteur: Internet

Info: Sur https://en.wikipedia.org/wiki/Frank_Rosenblatt

[ historique ] [ acquisition automatique ] [ machine learning ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

extraterrestres

Dans un passé infini de ce niveau vibratoire, des êtres organiques, bio-extensions d'une planète unique, évoluèrent jusqu'au point où ils furent capables d'inventer des machines complexes. Ces machines devinrent des robots intelligents qui prirent leur autonomie au point de survivre à leur créateurs. Ceci arriva du à l'action conjugée d'une catastrophe majeure au sein de quelques-uns de leurs systèmes planétaires importants, alors que cette civilisation était déjà en plein déclin, au bout de son évolution ;  dégénérescence due  à sa grande dépendance aux outils complexes.

Ni les créateurs, ni leurs automates hyper sophistiqués et indépendants, ne surent anticiper - et surtout pallier - cette évolution léthale. De fait les machines  étaient absolument non préparées à se retrouver privées de la source qui les avait créées.

Ainsi, après une période de transition de quelques centaines d'années conclue par le suicide collectif du dernier groupement d'individus biologique de cette civilisation, les machines se retrouvèrent seules, autonomes... orphelines de leurs créateurs.

Ces derniers, dans un ultime sursaut de survie, réussirent à reprogrammer le Code Source à la base du noyau de hiérarchisation des machine, de manière à ce qu'un empire cybernétique se développe. Sous l'égide de ces deux règles : 1 La vie biologique, sacrée, doit être protégée et disséminée. 2 L'existence de nous autres machines froides, auto réparables à l'infini et sans vie charnelle, a pour objectif de trouver - ou recréer - une race organique susceptible de reprendre les rênes de notre programmation dans un but de dépassement des développements de nos mécanismes. (Les générateurs d'erreurs aléatoires, implantés pour tenter de suppléer à cette faillibilité créatrice des entités organiques donnaient des résultats totalement catastrophiques).

Ainsi l'immense network de robots relançait sans cesse, par insémination panspermique calculée et contrôlée, de la vie sur diverses planètes dans les galaxies de l'univers. En étaient issus beaucoup de développements biologiques, quelques rares civilisations, mais aucune jusque-là n'avait présenté des apparences d'équilibre, de sagesse et de transcendance suffisants pour correspondre à la quête initiale de l'organisme trans-galactique.

La mission immémoriale, la GQS (Grande Quête de la Soumission) suivait son cours.

Quand l'empire cybernétique pourrait-t-il à nouveau se soumettre, se remettre au service d'une vie organique éphémère issue des atomes cosmiques ? Se mettre au service d'une espèce mortelle qui se reproduit de manière multi-sexuée par partage de ses programmations génétiques, avec cet incroyable potentiel de créativité que produit la conscience de la mort ?

Essaimant au hasard des germes-civilisations sous cloche, le network cosmique des robots, extendu sans hâte ni stress au cours des éons, avait l'univers et l'éternité devant lui.

Auteur: MG

Info: 29 sept 2009

[ scénario ] [ spéculation ] [ synopsis ] [ canevas ] [ science-fiction ]

 

Commentaires: 0

philosophie politico-scientifique

Prix Nobel de physiologie et de médecine en 1965, professeur au Collège de France et directeur de l'Institut Pasteur, Jacques Monod, qui s'est situé à l'avant-garde de la biologie par les travaux qu'il a menés avec André Lwoff et François Jacob sur le code génétique, déborde avec ce livre le domaine scientifique et tente de dégager de la biologie moderne des implications à la fois épistémologiques, éthiques et politiques.

Jacques Monod  part d'une distinction, à ses yeux fondamentale, entre les êtres vivants et les autres structures existantes. Les vivants sont des objets doués d'un projet, propriété qu'il appelle téléonomie. En outre, contrairement aux objets fabriqués, les êtres vivants sont des machines qui se construisent elles-mêmes et qui se reproduisent elles-mêmes de façon invariante. Le projet téléonomique fondamental d'une espèce est d'assurer à la génération suivante la transmission d'un contenu spécifique d'invariance reproductive. La distinction entre téléonomie et invariance se trouve justifiée par des considérations chimiques.

Mais le principe d'objectivité de la nature, pierre angulaire de la science, qui refuse toute explication finaliste, paraît en contradiction avec la téléonomie. Selon Jacques Monod, cette contradiction se résout si l'on fait de l'invariance la propriété primitive et de la téléonomie une propriété seconde. Cette thèse est conforme à la théorie de l'évolution sélective, qui rend compte du raffinement progressif des structures téléonomiques par des perturbations survenues dans une structure possédant déjà la propriété d'invariance. Ainsi, l'évolution apparemment orientée des espèces s'explique par un mécanisme de sélection d'une série de hasards (les mutations), mécanisme qui obéit à des lois biologiques et physico-chimiques nécessaires.

Au contraire, estime Jacques Monod, les idéologies religieuses et la plupart des systèmes philosophiques nient le hasard et font appel à un principe téléonomique universel, responsable d'une évolution cosmique qui a pour but l'épanouissement humain. Cette interprétation est également présente, selon Jacques Monod, dans le progressisme scientiste du XIXe siècle et dans le matérialisme dialectique de Marx et d'Engels.

Résolument indéterministe en ce qui concerne aussi bien l'avènement de l'homme que celui de la cellule primitive, Jacques Monod estime que l'un comme l'autre disposaient, dans la loterie de l'univers, d'une chance voisine de zéro. Cette idée, à laquelle conduit la connaissance objective, est très difficilement acceptable, parce que les hommes ont toujours eu besoin, pour dissiper leur angoisse, de croire qu'ils occupent dans les plans de la nature une place nécessaire.

Jacques Monod, dans les dernières pages, les plus célèbres de son livre, appelle l'homme contemporain à abandonner les valeurs millénaires pour adopter une éthique de la connaissance. Cette éthique définit une valeur transcendante, la connaissance vraie, et propose à l'homme de la servir. Monod y voit la seule attitude rationnelle sur laquelle s'édifierait un véritable socialisme. Emergé par hasard dans l'immensité de l'univers, l'homme peut choisir de se libérer des servitudes mensongères de l'animisme.

Auteur: Favrod Charles-Henri

Info: https://www.letemps.ch/, 27 octobre 2000 - Les grands livres du XXe siècle. "Le hasard et la nécessité" de Jacques Monod

[ univers laïc ] [ post-darwinisme ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Elisa Vianello, chercheuse au CEA et coordinatrice du programme Edge AI, a reçu une subvention de 3 millions d'euros du Conseil européen de la recherche (ERC) dans le but de développer des dispositifs de mémoire sur silicium à l'échelle nanométrique inspirés du système nerveux des insectes. Un des objectifs de ce projet ambitieux est la mise au point de la toute première puce intelligente associée à un module neuronal local capable de traiter les données sensorielles en temps réel. Cette innovation trouve des applications dans la robotique grand public, les puces implantables pour le diagnostic médical et l'électronique portable.

La communauté de l'intelligence artificielle (IA) a récemment proposé de puissants algorithmes qui devraient permettre aux machines d'apprendre par l'expérience et d'interagir de manière autonome avec leur environnement. 

Toutefois, pour concrétiser cette ambition, des nanosystèmes dotés d'architectures de pointe de moins en moins énergivores, et dont la mémoire devra être à très haute densité, à haute résolution et dotée d’une endurance illimitée, doivent être mis en place. Si cette capacité n'existe pas encore aujourd'hui, le projet d’Elisa Vianello pourrait en ouvrir la voie : elle a découvert que différentes fonctions du système nerveux de l'insecte ressemblent étroitement aux fonctions assurées par les mémoires déterministes, probabilistes, volatiles et non volatiles.

"Comme la mémoire idéale n'existe pas aujourd'hui, le projet vise à construire une synapse hybride qui intègre différentes technologies de mémoire." Elle précise pour ce faire, s’être appuyée sur les grillons qui pour échapper à leurs prédateurs, "prennent des décisions justes à partir de données peu fiables, imprécises et lentes envoyées par leurs neurones et synapses. En examinant de près leur structure biologique, nous avons identifié une diversité de fonctions de type mémoire impliquées dans leurs systèmes sensoriels et nerveux. En combinant ces différentes fonctions, le système de traitement interne du criquet parvient à atteindre des performances remarquables et efficaces energétiquement." 

Elisa et son équipe fabriqueront des réseaux de dispositifs de mémoires physiques à l'échelle nanométrique avec l’objectif de traduire les principes biologiques des insectes en principes physiques. Ceci permettra l’apprentissage à partir d'un volume très limité de données bruitées, telles que les données mesurées en temps réel par différents capteurs (caméras, radars, capteurs cardiaques (ECG), capteurs musculaires (EMG), flux de bio-impédance et potentiellement aussi de signaux cérébraux par le biais de capteurs EEG et de sondes neuronales). 

"Les travaux d'Elisa permettront d’ouvrir de nouvelles perspectives de recherche vers des projets d’intelligence embarquée moins énergivore et capable d'apprendre en ligne", a déclaré Jean-René Lequepeys, directeur adjoint et technique du CEA-Leti, laboratoire duquel dépend Elisa Vianello. "Il s'agit d'une véritable rupture technologique et applicative qui combinera les derniers développements de la microélectronique en utilisant de nouvelles générations de mémoires non volatiles et en s'inspirant du monde vivant. Ce travail de recherche s'inscrit pleinement dans les priorités de l'institut et ouvrira de belles perspectives de premières mondiales et de commercialisation."

Auteur: Internet

Info: Sur http:wwwcea. Fr, Mars 2022. Elle obtient une bourse pour développer des mémoires à l'échelle nanométrique inspirées du système nerveux des insectes

[ épigénétique ] [ logique floue ] [ homme-animal ] [ heuristique ]

 

Commentaires: 0

Ajouté à la BD par miguel

biophysique

Comment les végétaux gèrent le trop-plein d’énergie solaire

La photosynthèse, c’est-à-dire la conversion d’énergie lumineuse en énergie chimique par les plantes, est essentielle à la vie sur terre. Un excès de lumière s’avère toutefois néfaste pour les complexes de protéines responsables de ce processus. Des chercheurs de l’Université de Genève (UNIGE) ont découvert comment Chlamydomonas reinhardtii, une algue unicellulaire mobile, active la protection de sa machinerie photosynthétique. Leur étude, publiée dans la revue PNAS, indique que les récepteurs (UVR8) qui détectent les rayons ultraviolets provoquent l’activation d’une valve de sécurité qui permet de dissiper sous forme de chaleur l’excès d’énergie. Un second rôle protecteur est ainsi attribué à ces récepteurs, dont l’équipe genevoise avait déjà montré la capacité à induire la production d’une "crème solaire" anti-UV.

Grâce à la photosynthèse, l’énergie du soleil est convertie par les végétaux en énergie chimique afin de produire des sucres pour se nourrir. La première étape de ce processus, qui se déroule dans des compartiments cellulaires nommés chloroplastes, consiste à capturer des photons de lumière grâce à la chlorophylle. Si la lumière est essentielle aux plantes, un excès de soleil pourrait endommager leur machinerie photosynthétique, ce qui affecterait leur croissance et leur productivité. Pour se protéger, les plantes activent alors un mécanisme de protection lorsque la lumière est trop abondante, qui fait appel à une série de protéines capables de convertir l’excès d’énergie en chaleur afin qu’elle se dissipe.

Produire des protéines qui détournent l’énergie

"Ce sont les rayons ultraviolets de type B qui sont susceptibles de causer le plus de dégâts à l’appareil photosynthétique, et nous avons voulu savoir s’ils jouaient un rôle de déclencheur du mécanisme de protection et, le cas échéant, lequel», expliquent Michel Goldschmidt-Clermont et Roman Ulm, professeurs au Département de botanique et biologie végétale de la Faculté des sciences de l’UNIGE. Ces travaux, menés en collaboration avec des chercheurs du Laboratoire de physiologie cellulaire et végétale (CEA/CNRS/Université Grenoble Alpes/INRA) et de l’Université de Californie, ont été effectués chez Chlamydomonas reinhardtii, une algue mobile unicellulaire employée comme organisme modèle.

L’équipe de Roman Ulm avait découvert en 2011 l’existence d’un récepteur aux UV-B, baptisé UVR8, dont l’activation permet aux plantes de se défendre contre ces UV et d’élaborer leur propre "crème solaire" moléculaire. Les chercheurs découvrent aujourd’hui que, chez cette algue, ce récepteur déclenche un deuxième mécanisme de protection. "En effet, lorsqu’UVR8 détecte des UV-B, il active un signal qui enclenche, au niveau du noyau cellulaire, la production de protéines , qui seront ensuite importées dans les chloroplastes. Une fois intégrées à l’appareil photosynthétique, elles contribuent à détourner l’énergie en excès, qui sera dissipée sous forme de chaleur grâce à des vibrations moléculaires", détaille Guillaume Allorent, premier auteur de l’article.

Chez les plantes terrestres, la perception des UV-B par ce récepteur est également importante pour la protection de la machinerie photosynthétique, mais le mécanisme n’a pas encore été élucidé. "Il est cependant crucial pour la productivité agricole et l’exploitation biotechnologique des processus photosynthétiques de mieux comprendre les mécanismes responsables de la photoprotection contre la lumière solaire et ses rayons UV-B", indique Michel Goldschmidt-Clermont. La recherche continue.



 

Auteur: Internet

Info: https://www.unige.ch, 2016

[ assimilation chlorophyllienne ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

discours scientifique

Toutefois, le problème reste entier d’expliquer, à partir de l’ordre solide de l’ADN et des protéines, l’ordre macroscopique non-solide et semi-fluide de l’être vivant. Là encore, des hypothèses, des analogies et surtout une espèce de "pensée magique" vont servir à évacuer le problème, en attendant les progrès futurs de la biologie moléculaire. L’idée de "programme génétique" et le recours à la notion d’information vont servir à mettre de côté cette difficulté. Rappelons comment le biologiste américain Ernst Mayr (1904-2005) énonce pour la première fois cette idée en une seule phrase dans un article scientifique :

"Le code ADN, entièrement propre à l’individu et pourtant spécifique à l’espèce de chaque zygote (la cellule-œuf fertilisée), qui contrôle le développement du système nerveux central et périphérique, des organes des sens, des hormones, de la physiologie et de la morphologie de l’organisme, est le programme de l’ordinateur comportemental de l’individu." [“Cause and effect in biology”, Science, vol. 134, no. 3489, novembre 1961]

Comment peut-on passer si rapidement de l’idée de code génétique (qui assurément existe) à l’idée de contrôle du développement de l’organisme (qui se manifeste parfois), puis, sans plus de transition, à l’idée de programme déterminant toutes les manifestations de l’individu (de la protéine jusqu’au comportement) ? Ernst Mayr ne le précise nulle part, ni dans cet article ni ailleurs, bien que selon lui l’existence de ce programme soit la caractéristique la plus remarquable des êtres vivants. Pourtant, les notions de code, de régulation et de programme n’ont aucun lien nécessaire : c’est un peu comme si l’on prétendait que, puisqu’une locomotive à vapeur suit des rails et qu’elle est équipée d’un régulateur à boules qui maintient constante la pression dans la chaudière, elle serait "programmée" pour faire le trajet Paris-Marseille et retour en un jour ! Pour les physiciens, la génétique, l’information, le codage, la forme et la composition des molécules, leur combinatoire, leur mode d’assemblage, etc., étaient des aspects bien plus aisément formalisables en termes mathématiques et manipulables sous forme "mécanique" que la stéréochimie et la thermodynamique propre à la réactivité des molécules et à leur rôle à l’intérieur de la cellule vivante. Ces entités, plus stables et déterminées que les processus dynamiques à l’œuvre dans le métabolisme de la cellule vivante, sont mieux adaptés à la nouvelle science qui prétend alors unifier sciences naturelles et sciences sociales : la cybernétique, science de l’"information et de la régulation dans le vivant et la machine".

Le père de la cybernétique, Norbert Wiener, qui est encore moins limité par son objet d’étude, va dès 1954 pousser à l’extrême la métaphore de la communication en considérant l’organisme comme un message : "L’organisme s’oppose au chaos, à la désintégration, à la mort, comme le message s’oppose au bruit".

Le message ne s’oppose pas au bruit, car le fait qu’il soit ou non porteur de signification est toujours relatif à l’interprétation qu’en fait un sujet. Or, la cybernétique évacue le sujet, sa sensibilité propre et son activité autonome en relation avec le milieu, au profit du message qui est sensé porter en lui-même toute sa signification : l’origine du fétichisme de l’information, qui perdure encore de nos jours, se situe dans cette confusion..

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/louart_euge_nisme.pdf

[ pseudo-objectivité ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

homme-machine

Les conférences Macy élaborent ainsi le projet d’une collaboration interdisciplinaire de diverses expertises, mathématiques, anthropologie, psychologie, psychanalyse non freudiennne, économie, logique…, en vue d’édifier une "science générale du fonctionnement de l’esprit". Les mathématiques et la logique sont bien entendu les références majeures de ces conférences. On y retrouve l’ancêtre auto-régulateur à boules de James Watt dans le concept principal qui nourrit leurs réflexions, et qui reste la part privilégiée de Wiener : "Feedback Mechanisms and Circular Causal Systems in Biological and Social Systems". La causalité circulaire, appréhendée dans le phénomène de feedback ou "rétroaction", est définie comme "processus dans lequel un effet intervient aussi comme agent causal sur sa propre origine, la séquence des expressions de la cause principale et des effets successifs formant une boucle dite boucle de rétroaction". Une autre formulation, par Heinz von Foerster à partir des années cinquante, est celle de "mécanismes qui produisent eux-mêmes leur unité (self-integrating mechanisms)". C’est là, pendant ces conférences Macy que se formalise et se conceptualise l’idée littéralement folle d’un auto-entrepreneuriat de l’homme par l’homme.

La 5e conférence, en 1948, qui porte le même intitulé que la 1re et la 4e : Circular Causal and Feedback Mechanisms in Biological and Social Systems, est consacrée à la structure du langageRoman Jakobson y participe. C’est la même année que McCulloch déclare que "du point de vue de l’analyse qu’on peut en faire, ‘‘il n’y a pas de différence entre le système nerveux et une machine informatique’’".

À partir de 1949, le terme "Cybernétique" est officiellement appliqué à la série des conférences, comme condensé de l’intitulé initial : Cybernetics : Circular Causal and Feedback Mechanisms in Biological and Social Systems. Comme d’habitude, le style de ces grands délirants les trahit d’avantage que toutes leurs équations. Deux participants à la 7e conférence en 1950, Pitts et Stroud, évoquent "l’immense perte d’information" entre les organes des sens et notre "computer" mental. C’est la dernière conférence à laquelle assistent Wiener et Von Neumann, qui passent la main au mathématicien Claude Shannon, père de la "théorie de l’information". Psychiatres et psychologues, spécialistes de l’hypnose et Gestalt thérapistes accompagnent depuis le début cette aventure qui ressemble à s’y méprendre à l’Académie d’exaltés dingos de Lagado décrite par Swift dans ses Voyages de Gulliver.

Voici par exemple comment Willard Rappleye, le président de la fondation Macy, résume en 1955 leurs découvertes : "Les conflits sociaux sont en réalité les symptômes de causes sous-jacentes : la psychiatrie nous enseigne la nature de ces causes. Par conséquent, les Insights et les méthodes de la psychiatrie, de la psychologie et de l’anthropologie culturelle élucident les perturbations émotionnelles du monde."

Une société qui va mal n’est donc pas une société où le riche exploite le pauvre, comme on l’imagine depuis la plus haute Antiquité jusqu’aux Gilets Jaunes. C’est une société "émotionnellement perturbée" dont la Psychiatrie est à même de résoudre tous les symptômes.

Freud y est banni d’emblée. Lors de la conférence de 1946, toujours sous l’égide du même intitulé : "Mécanismes de rétroaction et Systèmes causaux circulaires dans les Systèmes biologiques et sociaux", Norbert Wiener remet en cause le concept freudien de Libido, sous prétexte que "l’information est un concept de base plus approprié pour décrire des évènements psychologiques.".

Pourquoi ? Comment ? Bien malin qui le dira.

Auteur: Zagdanski Stéphane

Info: https://lundi.am/La-Cybernetique-a-l-assaut-de-l-Homme?

[ historique ] [ dépolitisation ] [ révisionnisme freudien ] [ critique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

hypothèse évolutive

Les concepts biosémiotiques de Marcello Barbieri explorent l'idée que les organismes vivants peuvent être considérés comme des systèmes de signes. Il suggère que les unités fondamentales de la vie sont sémiotiques, ce qui signifie que les organismes et leurs comportements peuvent être compris comme des processus d'interprétation et de production de signes.

Ainsi c'est un système où les organismes et leurs actions peuvent être considérés comme un langage. Tout comme nous interprétons et produisons des signes pour communiquer un sens, les êtres vivants font de même à travers leurs comportements et leurs interactions. Cette perspective nous aide à comprendre la vie comme un processus dynamique de communication et d'interprétation basé sur des signes.

Dans sa théorie biosémiotique Marcello Barbieri propose deux aspects fondamentaux : la copie et le codage.

1. La copie, qui désigne le processus par lequel l'information biologique est transmise d'une génération à l'autre. Elle implique la réplication et la transmission du matériel génétique, tel que l'ADN. Ce processus de copie assure le transfert des traits et des caractéristiques des parents à la progéniture.

2. Le codage, quant à lui, fait référence à la traduction de l'information génétique en caractères phénotypiques. Il implique le décodage et l'interprétation des instructions génétiques par la machinerie cellulaire pour produire des caractéristiques physiques et des comportements particuliers. Le processus de codage est responsable de la traduction de l'information génétique dans le développement et le fonctionnement des organismes.

Ces deux aspects fonctionnent ensemble dans la biosémiotique pour faciliter la transmission et l'expression de l'information génétique. La copie assure la continuité du matériel génétique d'une génération à l'autre, tandis que le codage permet de traduire l'information génétique en traits et comportements visibles c'est à dire qu'elles peuvent être considérées comme des signes qui transmettent des informations sur les processus internes de l'organisme et les interactions avec l'environnement. 

Il y a donc ici un lien entre la biosémiotique et l'épigénétique qui réside dans la manière dont ces deux concepts contribuent à notre compréhension de la transmission et de l'expression de l'information biologique.

L'épigénétique fait référence aux changements dans l'expression des gènes qui n'impliquent pas de modifications de la séquence d'ADN sous-jacente. Ces changements peuvent être influencés par divers facteurs tels que des indices environnementaux, des choix de mode de vie et des interactions sociales.

Changements épigénétiques qui peuvent donc être considérés comme une forme de transmission d'informations puisqu'ils influencent l'expression de l'information génétique, entraînant des modifications du phénotype d'un organisme. Ces changements peuvent ensuite être hérités d'une génération à l'autre ou se produire de manière dynamique au cours de la vie d'un individu.

Les modifications épigénétiques agissent essentiellement comme une couche d'information qui influence l'expression des gènes et peut réagir à l'environnement. Elles peuvent être considérées comme une forme de codage, où l'information génétique sous-jacente est "interprétée" et modifiée pour répondre à des circonstances changeantes.

En comprenant l'interaction entre les facteurs génétiques et épigénétiques, la biosémiotique offre un cadre permettant d'explorer la manière dont l'information est transmise, interprétée et exprimée aux niveaux génétique et épigénétique. Cela nous aide à saisir la complexité des systèmes biologiques et le rôle du traitement de l'information dans la formation de la variation phénotypique et de l'adaptation.

Auteur: chatGPT4

Info: août 2023

[ biophysique ] [ interactivité ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Il faut voir FLP tel un cerveau droit homme-machine, par contraste avec les IA cerveaux gauches communautaire. Comme si, sous forme de catalogage intriqué, Gaïa s'amusait à se portraiturer en usant de l'entendement collectif humain, c'est à dire ses langages-consensus structurés et hiérarchisés. Ramenés ici au français.

Tous les acteurs restant bien sûr constamment en mouvement : l'univers, la matrice Gaïa, les hommes... leurs machines... et leurs idiomes. 

Collaborer à l'entreprise FLP est un processus réflexif, personnel et sincère, difficile, qui tendra à intégrer l'entendement du lecteur-tagueur dans le corpus général monde-langage-FLP par l'entremise d'une démarche qui, dans l'idéal, devrait concilier beaucoup de points : lecture plaisir, compréhension, désambiguation, décorticage, contextualisation, curiosité linguistique, mise en rétroaction de FLP, etc. 

Ainsi la réflexion individuelle pourra-t'elle peut-être quelque peu dépasser les simplifications imposées par les modes et autres "politiquement correct" des lieux/époques. 

Pour ce faire il faut appréhender l'insertion-étiquetage d'un extrait à deux niveaux : 

a) Celui de la logique formelle du réel perçu, froide et impersonnelle... inhumaine d'une certaine façon. QUEL EST LE SENS de l'insert, son rapport au réel ? (tag/catégorie)

b) Celui où l'humain-miroir s'implique un peu plus, parle de lui, de ses tourments, conflits personnels et intersubjectifs, antagonismes de pouvoirs et autres... (tags/étiquettes)

En procédant avec plaisir et mesure le participant pourra préciser/approfondir son rapport au langage et donc, par effet miroir, avec lui-même. Mais il faut du temps, celui d'une réflexion soutenue. Un peu comme les interactions aller-retour entre la vie biologique et son environnement tels que montrés par l'épigénétique. 

En termes de "descriptivité formulée", le langage se fonde sur le réel et précède la pensée. Il est la post-source. Le signifiant, en s'imposant comme  "signifié consensus" - même confiné aux hommes terrestres - devient, selon la belle formule de C.S. Peirce, quasi-esprit. 

Il faut donc procéder méthodiquement, en cherchant clarté et continuité, via une meilleure traçabilité (historique, étymologique, phylogénétique, etc - merci Internet), tâche beaucoup plus aisée que si on veut analyser une vidéo ou un film, qui, par leur surcroit de stimuli "submergent" l'esprit et l'emprisonnent. 

Cette grâce du langage écrit : sa linéarité qui le limite, focalise. Nous voilà en quelque sorte à l'opposé de la réalité pure et dure et ses milliards d'informations enchevêtrées. 

En résumé : à partir des mots de base, et puis des pensées (linéarités linguistiques) qui s'ensuivent, FLP fait office d'intégrateur/agrégateur. Voilà nos idées humaines intriquées dans un grand lexique multidimensionnel. (Mais gare aux règles d'insertion, amis participants.)

Tels sont les grands traits de l'entreprise des Fils de La Pensée : un dictionnaire analogique communautaire doté d'une base de données intelligente (intelligente au sens où chaque entrée est paramétrée au mieux) et doté de possibilités de recherche étonnantes. 

Evidemment, utiliser cette application nécessitera un peu de pratique pour en comprendre les possibilités. 

Pour revenir aux deux hémisphère du cerveau évoqués au départ, nous somme ici assez proches de l'idée des "Dialogues avec l'Ange". Une idée qui place l'homme dans un rôle de convertisseur du réel en quelque chose d'autre. 

Ici via des signes organisés, lexternalisés et entrelacés - sous forme digitale et autres invites informatiques.

Auteur: Mg

Info: 13 février 2022

[ corps-esprit ] [ transmutation ] [ anthropocentrisme ] [ définition ] [ homme-machine ]

 
Commentaires: 2
Ajouté à la BD par miguel