Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 387
Temps de recherche: 0.0488s

protestantisme

Dans les rapports de l’homme avec Dieu, rien de juridique. Tout est amour, un amour agissant et régénérateur, témoigne à la créature déchue par la Majesté redoutable. Un amour qui l’incline, non point à pardonner à l’homme ses péchés, mais à ne point les lui imputer. Tout pécheur qui, se reconnaissant comme tel, acceptant sur sa misère morale et sa souillure le témoignage d’une conscience sans complaisance, sent et atteste que Dieu, le seul juste, est pleinement en droit de le rejeter ; en langage luthérien, tout homme qui reçoit le don de la foi (car la foi pour Luther n’est pas la croyance ; c’est la reconnaissance par le pécheur de la justice de Dieu  ) — tout pécheur qui, se réfugiant ainsi au sein de la miséricorde divine, sent sa misère, la déteste, et proclame par contre sa confiance en Dieu : Dieu le regarde comme juste. Bien qu’il soit injuste ; plus exactement, bien qu’il soit à la fois juste et injuste : Revera peccatores, sed reputatione miserentis Dei justi ; ignoranter justi et scienter injusti ; peccatores in re, justi autem in spe  ... Justes en espérance ? par anticipation plus exactement. Car ici-bas, Dieu commence seulement l’œuvre de régénération, de vivification, de sanctification qui, à son terme, nous rendra justes, c’est-à-dire parfaits. Nous ne sommes pas encore les justifiés, mais ceux qui doivent être justifiés : non justificati, sed justificandi.

Donc les œuvres disparaissent. Toutes. Arbitramur justificari hominem per fidem, sine operibus legis [Car nous estimons que l'homme est justifié par la foi, sans les oeuvres de la loi] : Luther rencontrait dans l’Épître aux Romains (III, 28) la formule fameuse. Dès 1516, il repoussait avec force l’interprétation traditionnelle : opera legis, les pratiques extérieures. Erreur, s’écriait-il dans une lettre à Spalatin du 19 octobre 1516 ; et déjà, annonçant de futurs combats : "Sur ce point, sans hésitation, je me sépare radicalement d’Érasme". Opera legis, toutes les œuvres humaines, quelles qu’elles soient ; toutes méritent la réprobation de l’apôtre. Le salut ? Il nous vient de sentir en nous, toujours, le mal agissant et notre imperfection. Mais aussi, si nous avons la foi, de porter Dieu en nous. De sa seule présence naît l’espoir d’être justifié, de prendre rang parmi ces élus que, de toute éternité, il prédestine au salut, parce qu’il les aime assez pour les appeler à la vie éternelle. […]

Conception d’accent tout personnel. On voit de suite en quoi, et comment, elle pouvait procurer à Luther ce calme, cette paix que la doctrine traditionnelle de l’Église ne lui ménageait point. Ce mécontentement de lui-même qui ne l’abandonnait jamais ; ce sentiment aigu de la ténacité, de la virulence perpétuelle du péché qui persistait en lui à l’heure même où il aurait dû se sentir libéré et purifié ; cette conscience de ne jamais réaliser, même au prix des plus grands, des plus saints efforts, que des œuvres souillées de péché, d’égoïsme ou de convoitise ; tout ce qui faisait le désespoir, l’anxiété, le doute atroce de Luther — tout cela, il le concevait maintenant avec une force, une clarté indicibles : conditions voulues, par Dieu conditions normales et nécessaires du salut. Quel soulagement, et quelle résurrection !

Auteur: Febvre Lucien

Info: Un destin : Martin Luther, PUF, 1968, pages 34-35

[ théologie ] [ bénéfices secondaires ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

régénération

Des scientifiques découvrent accidentellement des métaux qui se réparent d'eux-mêmes sans intervention humaine.

Le concept des métaux auto-cicatrisants - ponts, vaisseaux spatiaux ou robots capables de se réparer spontanément - est peut-être un peu plus proche de la réalité. Pour la première fois, des scientifiques ont observé un métal solide réparer ses propres fissures sans intervention humaine, défiant ainsi les théories fondamentales de la science des matériaux.

"Nous n'aurions jamais pensé que le métal puisse réparer lui-même ses fissures", déclare Zhenan Bao, ingénieur chimiste à l'université de Stanford, qui n'a pas participé à la nouvelle étude. Selon la théorie conventionnelle des matériaux, l'application d'une contrainte à un métal fissuré ne peut qu'élargir les fissures. Les nouvelles découvertes "vont certainement amener les gens à repenser la manière dont nous prévoyons la fiabilité mécanique des structures et des équipements métalliques", déclare Bao.

Michael Demkowicz, spécialiste des matériaux à l'université A&M du Texas et coauteur de la nouvelle étude, récemment publiée dans Nature, a théorisé pour la première fois l'autoréparation des métaux il y a dix ans, lorsque ses simulations informatiques ont montré que les métaux solides pouvaient se "souder" d'eux-mêmes pour fermer de petites fissures. Comme les métaux ont généralement besoin de températures élevées pour changer de forme, de nombreux scientifiques pensaient que les simulations étaient erronées, explique M. Demkowicz.

"Je pensais qu'il s'agissait d'un joli modèle de jouet, mais qu'il était très difficile de l'explorer expérimentalement à l'époque", déclare Khalid Hattar, coauteur de l'étude et ingénieur nucléaire à l'université du Tennessee, à Knoxville. C'est alors qu'il est tombé sur des preuves concrètes de la théorie de Demkowicz. En 2016, il a étudié, avec des scientifiques des laboratoires nationaux Sandia, la manière dont les fissures se propagent sur des morceaux de platine de taille nanométrique dans le vide. À l'aide d'un microscope électronique spécialisé, ils ont stimulé le métal 200 fois par seconde et ont observé les fractures se propager en toile d'araignée sur sa surface. Puis, au bout d'une quarantaine de minutes, les dommages ont commencé à disparaître ; les chercheurs ont vu les fissures se reconstituer comme dans une vidéo jouée à l'envers. "Je suppose que Mike avait raison après tout", se souvient Hattar.

La capacité d'auto-réparation semble apparaître lorsque les bords d'une fissure sont suffisamment rapprochés pour que leurs atomes respectifs se lient. Dans certaines zones, les irrégularités de la structure cristalline nette d'un métal se déplacent sous l'effet d'une tension externe, telle que la force exercée par l'usure naturelle. En se déplaçant, ces irrégularités induisent une contrainte de compression qui déclenche l'effet de recollage.

L'équipe de Sandia et Demkowicz ont reproduit leurs observations avec le platine et le cuivre. Les simulations informatiques suggèrent que l'aluminium et l'argent devraient également s'auto-guérir, mais les chercheurs ne savent pas si des alliages tels que l'acier peuvent réaliser cette prouesse. Il n'est pas non plus certain que l'autoréparation puisse jamais être un outil pratique en dehors du vide ; les particules atmosphériques à l'intérieur d'une fissure peuvent l'empêcher de se recoller, explique l'équipe. Quoi qu'il en soit, ce phénomène amènera certains spécialistes des matériaux à repenser ce qu'ils savent du métal. "Dans les bonnes circonstances", déclare M. Demkowicz, "les matériaux peuvent faire des choses auxquelles nous ne nous attendions pas".

Auteur: Internet

Info: https://www.scientificamerican.com, Lucy Tu, le 1 octobre 2023

 

Commentaires: 0

Ajouté à la BD par miguel

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

définition

Que signifie vraiment "disruption" ou "disruptif" et pourquoi tout le monde en parle maintenant ?

Vous avez raison: on retrouve les mots "disruption" et ses dérivés un peu partout aujourd'hui. Ainsi on entend parler de "président disruptif", de startup qui "a pour ambition de disrupter le secteur de la douche" ou d'autres qui veulent "disrupter le chômage". En mai 2017, France Télévision expliquait au Monde que les invités mystères de l'Emission Politique, comme Christine Angot, étaient "parfois disruptifs".

Selon une défitinition présente dans le Dictionnaire de la langue française (1874) d'Emile Littré, le mot disruption signifie "rupture" ou "fracture". Pourtant on ne comprend pas trop ce que signifie "fracasser le secteur de la douche".

Si "disruption" s'est échappé du cercle restreint des cruciverbistes (les amateurs de mots croisés) pour se retrouver de manière très présente dans le vocable d'aujourd'hui, c'est surtout dû à son emploi dans le milieu de l'économie avec l'apparition de jeunes entreprises (les fameuses startups), qui ont su utiliser les outils numériques pour transformer certains marchés.

On pense notamment à Uber, Airbnb ou Netflix qui ont cassé des systèmes, qui paraissaient établis, des taxis, de l'hôtellerie ou de la location de films ou de séries, en proposant des services innovants (devenir soi-même chauffeur de sa propre voiture, louer son ou ses appartements et permettre pour un prix réduire d'accéder à des catalogues entiers de contenus culturels). Depuis tout entrepeneur qui a de l'ambition et espère connaître un succès aussi important que les entreprises citées, souhaite trouver l'idée disruptive qui lui permettra de transformer un marché pour faire table rase du passé.

En janvier 2016, la rédactrice en chef du service économie de L'Obs, Dominique Nora, avait consacré un article au "concept de "Disruption" expliqué par son créateur". Elle y faisait la recension du livre "New : 15 approches disruptives de l'innovation", signé par Jean-Marie Dru. Dans cette fiche de lecture, on apprend notamment que:

" DISRUPTION est une marque appartenant à TBWA [une important agence de publicité américaine; NDLR] depuis 1992, enregistrée dans 36 pays dont l'Union Européenne, les Etats-Unis, la Russie, l'Inde et le Japon."

Mais aussi qu'il n'a pas toujours eu un aura lié à l'entreprise:

Même en anglais, au début des années 90, le mot 'disruption' n'était jamais employé dans le business. L'adjectif caractérisait les traumatismes liés à une catastrophe naturelle, tremblement de terre ou tsunami…

Selon Jean-Marie Dru, père du concept, le terme sert d'abord à qualifier la "méthodologie créative" proposée aux clients de son agence.  Puis le professeur de Harvard, Clayton Christensen, va populariser l'expression à la fin des années 90 en parlant "d'innovation disruptive". Les deux hommes ont l'air de se chamailler sur la qualité de "qui peut être disruptif?". Dru estime que "pour Christensen, ne sont disruptifs que les nouveaux entrants qui abordent le marché par le bas, et se servent des nouvelles technologies pour proposer des produits ou services moins cher " alors que lui considère que la disruption n'est pas réservée uniquement aux startups puisque de grands groupes comme Apple ou Red Bull sont capables de "succès disruptifs".

Finalement au mileu de tous ces "disruptifs", L'Obs apporte cette définition de la disruption:

"Une méthodologie dynamique tournée vers la création". C'est l'idée qui permet de remettre en question les "Conventions" généralement pratiquées sur un marché, pour accoucher d'une "Vision", créatrice de produits et de services radicalement innovants.

Force est de constater que le marketing et les médias ont employé ces mots à tire-larigot et qu'ils peuvent être désormais utilisés dans n'importe quel contexte au lieu de "changer" ou "transformer", voire même de "schtroumpfer". Ne vous étonnez pas si votre conjoint se vante d'avoir "disrupter" la pelouse en la faisant passer d'abondante à tondue, ou d'avoir "disrupté" le fait de se laver en utilisant le shampoing au lieu du gel douche... 

Auteur: Pezet Jacques

Info: Libération, 13 octobre 2017

[ mode sémantique ] [ dépaysement libérateur ] [ accélérationnisme ] [ contre-pied ] [ contraste ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

Meta a dévoilé une intelligence artificielle capable de lire dans vos pensées. En s’appuyant sur les signaux électromagnétiques du cerveau, l’IA peut comprendre les images que vous avez en tête et les reproduire.

Meta concentre désormais ses efforts sur l’intelligence artificielle. Ces derniers mois, les chercheurs du groupe de Mark Zuckerberg ont dévoilé une pléthore d’innovations s’appuyant sur l’IA. Citons notamment Voicebox, une intelligence artificielle capable d’imiter une voix humaine, le modèle de langage Llama 2, ou MusicGen, un outil qui peut produire une musique à la demande.

Le géant de Menlo Park ne compte pas s’arrêter là. Sur son site web, Meta vient de mettre en ligne un rapport consacré à une IA conçue pour décoder ce qu’il se passe dans le cerveau humain. L’intelligence artificielle est en effet capable de comprendre les images qu’un individu a en tête. Par la suite, l’IA va reproduire les images aperçues dans les pensées de celui-ci.

Comment l’IA peut lire dans le cerveau ?

Pour parvenir à cette prouesse, Meta s’appuie sur la magnéto-encéphalographie, ou MEG, une technique d’imagerie cérébrale qui mesure l’activité électromagnétique du cerveau. En collectant "des milliers de mesures d’activité cérébrale" par seconde, le système va "décoder le déploiement des représentations visuelles dans le cerveau". Meta a mis au point un "modèle de décodage" basé sur l’IA pour comprendre les champs magnétiques produits par l’activité neuronale.

Une fois que les données ont été traitées, elles vont être reliées aux représentations visuelles mises au point l’IA en amont. Ces représentations sont générées par un encodeur d’image, qui dispose d’un " riche ensemble " de visuels différents. En d’autres termes, les images déjà disponibles vont être comparées aux images décelées dans le cerveau. C’est là que l’" encodeur cérébral " entre en jeu. Enfin, l’IA va produire une " image plausible " en se basant sur les visuels dans les pensées de la cible. Notez que les visuels sont générés en continu à partir du cerveau, ce qui offre un aperçu unique de ce qu’il se passe dans l’esprit humain.

Dans le cadre de son expérience, l’entreprise a d’abord montré une image, fournie par l’IA, à des bénévoles. En parallèle, une machine MEG scannait les signaux de leur cerveau. Meta a partagé plusieurs exemples des résultats générés dans son rapport. Dans la plupart des cas, le résultat final n’est pas tombé loin de l’image montrée à l’origine. L’IA parvient généralement à reproduire l’objet principal de l’image en s’appuyant sur les ondes et sa bibliothèque de visuels.

" Nos résultats montrent que le MEG peut être utilisé pour déchiffrer, avec une précision d’une milliseconde, la montée des représentations complexes générées dans le cerveau ", résume Meta.

Les limites de l’IA

À ce stade, l’IA doit d’abord être entraînée sur l’activité cérébrale d’un individu avant d’être utilisée pour décrypter des pensées. Le système doit passer par une période de formation, qui va l’habituer à interpréter des ondes cérébrales spécifiques. De la même manière, un modèle linguistique doit être formé sur base d’une montagne de textes avant de pouvoir animer un chatbot.

De plus, rien n’indique que cette technologie, encore à ses balbutiements, puisse permettre de décoder des images qui ne sont pas d’abord traitées par l’IA. Tout en promettant d’autres avancées à l’avenir, Meta estime que sa technologie pourrait permettre de concevoir des " interfaces cerveau-ordinateur non invasives " pour venir en aide aux personnes qui ont perdu la capacité de parler.

Notez qu’il ne s’agit pas de la première fois qu’une IA parvient à lire dans les pensées humaines. Cet été, des chercheurs américains ont dévoilé une IA capable de deviner la musique qu’une personne est en train d’écouter uniquement en collectant les données issues du cerveau. Là encore, les scientifiques se sont appuyés sur les signaux électriques émis par le cerveau. 

Auteur: Internet

Info: https://www.01net.com/, 19 octobre 2023, source : Meta

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sciences

Les ordinateurs peuvent-ils être créatifs? Le projet WHIM ("What-if Machine"), financé par l'UE, génère non seulement des scénarios fictifs mais évalue également leur potentiel attractif et d'utilisation. Il représente une avancée majeure dans le domaine de la créativité informatique. La science ignore bien souvent le monde du fantastique, mais les choses changent avec le projet WHIM qui porte bien son nom (en anglais, "whim" signifie fantaisie). Ce projet ambitieux élabore un système logiciel capable d'inventer et d'évaluer des idées imaginaires. "WHIM est un antidote à l'intelligence artificielle traditionnelle, qui est obsédée par la réalité", déclare Simon Colton, coordinateur du projet et professeur en créativité informatique au Goldsmiths College, à l'université de Londres. "Nous faisons partie des premiers à appliquer l'intelligence artificielle à la fiction". L'acronyme du projet signifie What-If Machine. C'est également le nom du premier logiciel de conception de fictions au monde, par un processus d'idéation (processus créatif de production, de développement et de communication de nouvelles idées) développé dans le cadre du projet. Le logiciel génère des mini-récits fictifs en utilisant des techniques de traitement du langage et une base de données des faits trouvés sur le web (qui sert de référentiel de faits "réels"). Le logiciel intervertit ou déforme ensuite les faits pour créer des scripts hypothétiques. Le résultat est souvent absurde: "Que se passerait-il si une femme se réveillait dans une allée après avoir été transformée en chat, mais tout en étant toujours capable de faire du vélo ?" Les ordinateurs peuvent-ils juger la créativité ? WHIM est bien plus qu'une simple machine génératrice d'idées. Le logiciel cherche également à évaluer le potentiel d'utilisation ou la qualité des idées générées. En effet, ces dernières sont destinées à un usage par le public, et les impressions du public ont été sondées avec des expériences participatives (crowdsourcing). Par exemple, les personnes interrogées ont fait part de leurs impressions générales, précisant également aux chercheurs du projet WHIM si les scripts imaginaires produits étaient, selon elles, innovants et avaient un bon potentiel narratif. Au moyen de techniques d'apprentissage automatique, conçues par des chercheurs de l'institut Jozef Stefan de Ljubljana, le système acquiert progressivement une compréhension plus précise des préférences du public. "On pourrait dire que la fiction est subjective, mais il existe des schémas communs", déclare le professeur Colton. "Si 99 % du public pense qu'un humoriste est amusant, alors nous pourrions dire que l'humoriste est amusant, au moins selon la perception de la majorité". Ce n'est que le début Générer des mini-récits fictifs ne constitue qu'un aspect du projet. Des chercheurs de l'Universidad Complutense Madrid transforment les mini-récits en scripts narratifs complets, qui pourraient mieux convenir pour l'intrigue d'un film par exemple. Parallèlement, des chercheurs de l'University College Dublin tentent d'entraîner les ordinateurs à produire des idées et paradoxes métaphoriques en inversant et opposant des stéréotypes trouvés sur le web, tandis que des chercheurs de l'Université de Cambridge explorent l'ensemble du web à des fins de création d'idées. Tous ces travaux devraient engendrer de meilleures idées imaginaires plus complètes. Plus qu'une simple fantaisie Bien que les idées imaginaires générées puissent être fantaisistes, WHIM s'appuie sur un processus scientifique solide. Il fait partie du domaine émergent de la créativité informatique, une matière interdisciplinaire fascinante située à l'intersection de l'intelligence artificielle, la psychologie cognitive, la philosophie et les arts. WHIM peut avoir des applications dans plusieurs domaines. Une des initiatives envisage de transformer les récits en jeux vidéo. Une autre initiative majeure implique la conception informatique d'une production de théâtre musicale: le scénario, le décor et la musique. Le processus complet est en cours de filmage pour un documentaire. WHIM pourrait également s'appliquer à des domaines non artistiques. Par exemple, il pourrait être utilisé par des modérateurs lors de conférences scientifiques pour sonder les participants en leur posant des questions destinées à explorer différentes hypothèses ou cas de figure. L'UE a accordé 1,7 million d'euros de financement au projet WHIM, actif d'octobre 2013 à septembre 2016.

Auteur: Internet

Info:

[ homme-machine ] [ informatique ] [ créativité ]

 

Commentaires: 0

éléments biographiques

Vers 1937-1938, à la cime du triomphe des Hommes de bonne volonté, Jules Romains devait rappeler doucement à des journalistes (il l'a raconté à André Bourin dans Connaissance de Jules Romains), qu'il n'était pas seulement un romancier, et qu'entre 1922 et 1932 il avait été un des auteurs dramatiques les plus joués non seulement en France, mais en Europe . Il leur montrait une caricature d'une grande feuille satirique où la situation d u théâtre en Europe était symbolisée par un triangle avec une tête à chacun des angles : Bernard Shaw, Pirandello , Jules Romains. Jules Romains n'est pas seulement philosophe parce qu'il est agrégé de philosophie. L'unanimisme est plus qu'une école littéraire en isme, comme le romantisme, le symbolisme, le naturalisme. Il est aussi une doctrine philosophique , une vision du monde, un système de pensée fortement lié, fondement de toute son œuvre. Entre le passé, le présent, l'avenir, Jules Romains prend conscience d'un continu psychique. Il communie "avec l'âme diffuse qui relie et soutient les âmes particulières. L'individu fondu dans l'unanimisme (à quoi l'aideront le Rire et l'Aventure), se sentira devenir dieu, fuira le néant, sera assuré de survivre." (Madeleine Berry, Jules Romains.) Comme beaucoup de systèmes philosophiques l'unanimisme est né d'une illumination : celle qui embrasa l'âme du lycéen de dix-huit ans, un soir d'octobre 1903 où, avec son ami Georges Chennevière, il remontait la rue d'Amsterdam, au retour du lycée Condorcet, pour regagner l'appartement de ses parents, à Montmartre. Jules Romains est aussi un homme de science. Quand il entra à Normale Supérieure, il était déjà pourvu de sa licence ès lettres. A l'Ecole, il passa sa licence de sciences naturelles avec trois certificats : physiologie générale, histologie, botanique. Pour son mémoire d'études supérieures il choisit un sujet de biologie : L'état individu de la matière vivante. Ce mémoire familiarisait le normalien des Lettres avec le laboratoire, le microscope, la bactériologie . En outre, a confessé Jules Romains à André Bourin, il avait pour lui, "en secret, le mérite de rejoindre les préoccupations centrales de l'unanimisme. Tout problème concernant la formation de groupes, et les formes de passage, dans les deux sens, entre le groupe et l'individu, est essentiel à la pensée unanimiste". C'est avec cette idée de derrière la tête qu'il étudia des végétaux inférieurs et des colonies bactériennes, et qu'il fit des expériences sur l'autonomie du cœur de la grenouille. Plus tard, pendant cinq ans, Jules Romains faillit basculer tout à fait du côté des Sciences. Il entreprit des recherches sur la Vision extra-rétinienne et le sens paroptique. Certains animaux se dirigent sans voir. Les poissons y réussissent grâce à une particularité anatomique dite ligne latérale. Pourquoi l'homme ne posséderait-il pas un sens aussi mystérieux ? Pourquoi n'aurait-il pas été doué, à l'origine, d'un sens paroptique, qui, dans l'histoire de l'humanité, aurait précédé le sens optique ? Jules Romains essaya de rééduquer quelques aveugles. Il ne put rééduquer certains pontifes de la médecine qui dressèrent contre lui le barrage de leurs diplômes que leurs ancêtres avaient dressé contre Pasteur. Il abandonna ses recherches et reprit la plume de l'écrivain. Il publia le compte rendu de ses expériences : La vision extra-rétinienne et le sens paroptique (1920). Ces expériences seront poursuivies victorieusement par René Maublanc , qui publia ses résultats, en collaboration avec Leïla Holteroff : Une éducation paroptique. La découverte du monde visuel par une aveugle (Gallimard, 1926). Plus récemment des savants soviétiques et des savants américains confirmèrent la vérité des hypothèses de Romains. Mais, au temps où il les formulait, il se heurta à la cabale des officiels bardés de leurs peaux d'ânes. Ils l'accusèrent d'avoir monté un canular. Ils ne pouvaient pas admettre qu'ils avaient devant eux un génie universel, comme ceux de la Renaissance, et que le même homme pût écrire les Copains et faire des découvertes de laboratoire. On succombait déjà sous l'éteignoir de la spécialisation. Dans les Lettres et les Arts, il était interdit déjà d'être grand et de dépasser le gabarit du produit de série.

Auteur: Guth Paul

Info: Hommage à jules Romains

[ éloge ] [ polymathe ]

 
Commentaires: 2
Ajouté à la BD par miguel

question

Stephen Paddock, le papy du futur ?
La tuerie de Las Vegas préfigure peut-être une nouvelle criminalité, celle des vieux et des malades qui n’ont rien à perdre dans une société du tout juridique où la morale n’a plus d’effet.
Stephen Craig Paddock, le tueur de Las Vegas, était trop vieux, trop riche, trop indifférent à la religion, à la politique - et même aux armes à feu - pour que son geste soit intelligible selon les grilles d’interprétation ordinaires. Et loin d’être un fou ou un être isolé, il était "normal", il avait une famille et une fiancée. Il n’avait d’ailleurs pas le moindre antécédent judiciaire. Angoissée par cette absence de sens, la presse chercha dans ses gènes l’explication de son massacre : son père avait été un gangster. Mais cette hypothèse loufoque ne satisfit personne. On prêta très peu d’attention au fait qu’il choisit de tuer des jeunes gens qui écoutaient un concert de musique country, celle que l’affreux retraité adorait. Des jeunes, donc, auxquels il aurait pu s’identifier. Comme si, au crépuscule de sa vie, il regrettait tant de quitter ses joies et ses délices qu’il en devint hargneux et envieux au point de vouloir éliminer ceux qui avaient devant eux de longues décennies pour en profiter.
Peut-être avait-il choisi d’en finir avec sa propre existence, ne supportant pas la vieillesse ou une maladie grave. Mais avant, Paddock voulait assouvir sa haine envers les jeunes bienheureux.
Cette hypothèse serait terrifiante si on la prenait non pas comme l’explication de l’acte isolé d’un homme mais comme une nouvelle manière d’appréhender nos rapports aux normes. En effet, que se passerait-il si la seule contrainte que nous ressentions était celle de la loi, si nous nous détachions complètement de celle de la morale ? Celle-ci était la grande obsession de la romancière américaine Patricia Highsmith. Dans son roman Ripley s’amuse, elle avait imaginé les comportements d’un homme, au bord de la mort, à qui l’on proposait de tuer pour sauver sa famille de la misère.
Bien sûr, la plupart de ceux qui arrivent à la fin de leur vie ne commettent pas des actes aussi graves, même si ces derniers restent impunis, parce que des contraintes morales les en empêchent justement.
Mais notre société ne cesse de saper ce rapport que nous entretenons avec la morale.
Depuis quelques décennies, l’Etat cherche à régler l’ensemble de nos comportements, ceux qui atteignent les autres, mais aussi ceux qui ne portent atteinte qu’à nous-mêmes, et cela commence de plus en plus tôt dans la vie. Il est vrai que les instances dites intermédiaires, comme la famille, l’école ou le travail, sont si fragilisées qu’elles peinent à imposer des normes. Désormais, ces institutions semblent incapables de fonctionner sans que les comportements, y compris les plus anodins, soient réglés par le droit. Ce nouveau travers de nos sociétés n’a-t-il pas comme conséquence l’incroyable cynisme que l’on peut attribuer à Paddock ? Ce travers permet, en effet, d’éviter les comportements antisociaux les plus graves, seulement si l’on risque d’être pris et puni.
Dans un tel monde, le groupe le plus redouté serait celui constitué par les personnes très âgées ou très malades, celles qui n’ont plus rien à perdre, et non plus par les jeunes. Complètement indifférentes à leur réputation post-mortem, elles formeraient des bandes se livrant aux pires turpitudes et suscitant la peur autour d’elles. Leur cynisme sera tel qu’elles devront être l’objet d’une surveillance constante et envahissante.
Des dispositifs techniques de contrôle viendront combler l’absence de sentiment de culpabilité des citoyens, celui-ci n’étant plus intérieur mais extérieur. Sauf à faire marche arrière sur cette bêtise qu’est le tout juridique, sauf à redonner du pouvoir aux instances intermédiaires, lesquelles devront être repensées à leur tour.
Mais quels efforts ne serions-nous pas prêts à faire pour éviter que des tueries comme celles de Sin City (Frank Miller et Robert Rodriguez, 2005), la ville du vice et du péché, ne deviennent aussi banales que les divorces ou les vols ? Pour empêcher que des salauds comme Paddock ne deviennent demain le type le plus courant du papy.

Auteur: Iacub Marcela

Info: Le nouvel observateur, 6 octobre 2017, 18:56

[ normalisation ] [ désenchantement ] [ tueur de masse ] [ amoralité ]

 

Commentaires: 0

cognition

Comment le cerveau déforme la réalité temporelle
En 1973 Benjamin Libet de l’université d’état de Californie à San Francisco, dans une série d’expériences fascinantes, a prouvé que la prise de conscience suite à un stimulus sensoriel, (stimulation électrique sur le cerveau) se produit 500 millisecondes (temps neuronal) après le stimulus.
Lors de certaines opérations du cerveau, il a obtenu l’autorisation des patients de réaliser une expérience, qui consistait à stimuler avec des électrodes la zone du cerveau à l’air libre, (la boite crânienne étant ouverte ) qui correspondait à la zone d’activité d’une piqûre au doigt. Le sujet réveillé déclare après 500 millisecondes sentir la piqûre.
C’est-à-dire que la plupart des expériences conscientes, requièrent une période minimale substantielle d’activation corticale de 350 à 500 millisecondes pour accéder à la conscience.
Ben Libet a profité de certaines opérations du cerveau où celui-ci est ouvert et où le patient est réveillé pour stimuler directement le cerveau et observer les réactions du patient. En fait, il stimulait d’abord un doigt (avec une petite décharge électrique), puis il mesurait le temps pour que le sujet ressente une piqûre au doigt. Ça donnait 25 millisecondes.
Ensuite, il stimulait directement le cerveau sur la zone correspondant à la main. Le sujet ressent bien une piqûre à la main (et non pas au cerveau), mais seulement au bout de 500 millisecondes. De plus, pour que le sujet ressente une piqûre, il fallait envoyer un train de choc, et non pas un choc unique.
Ben Libet a ensuite combiné les deux expériences : il a d’abord stimulé le doigt, puis 200 ms plus tard il stimule le cerveau avec un train de chocs. Le sujet ressent une seule piqûre, 700 ms après la stimulation du doigt. Comme les chocs électriques fait au cerveau sont plus faibles que ceux faits au doigt, et comme le sujet ne ressent qu’une faible piqûre, on sait que la piqûre qu’il a ressenti après 700 ms était la stimulation du cerveau. Celle effectuée sur le doigt est donc passée à la trappe.
Puis Libet recommence (le doigt, puis le cerveau), mais en laissant cette fois un délai de 500 ms entre les deux stimulations. Toujours rien : le sujet ne perçoit qu’une seule piqûre, 1 seconde après la première stimulation (c’est-à-dire 500 ms après la stimulation du cerveau).
Libet recommence une dernière fois, mais en laissant plus de 500 ms entre les deux stimulations. Là, le patient ressent bien 2 piqûres, la première 25 ms après la première stimulation (au doigt), et la deuxième 500 ms après la deuxième stimulation (au cerveau).
Libet a tiré plusieurs conclusions de ces expériences :
1- L’influx nerveux met 25 ms pour parvenir du doigt au cerveau.
2- Il faut 500 ms pour être conscient de quelque chose, puisque c’est le délai entre la stimulation du cerveau et la sensation afférente.
3- Une stimulation au cerveau moins de 500 ms après une première stimulation au doigt nous empêche d’être conscients d’une piqûre dont nous serions normalement conscients au bout de 25 ms.
Évidemment ça pose un problème, puisque le temps d’élaboration d’une sensation consciente est bien de 500 ms (475 ms en fait, puisqu’il faut compter le temps que l’influx nerveux arrive du doigt au cerveau). Comment se fait-il que dans la réalité, nous soyons conscients d’un stimuli après 25 ms seulement ? La solution que propose Libet est incroyable : il suggère ni plus ni moins que la conscience antidate la sensation en retournant en arrière dans le temps de 475 ms.
Cette expérience est la confirmation scientifique, que la conscience volontaire arrive beaucoup trop tard pour être à l’origine de l’action.
Et si le cerveau peut initier nos mouvements volontaires, avant même l’apparition d’une volonté consciente de faire ces mouvements, quel rôle reste-t-il pour la conscience?
Les expériences de Libet soulignent que tout ce qui se produit est d’abord inconscient, avant de devenir conscient.
Cette expérience a été vérifiée par d’autres scientifiques, et notamment Patrick Haggard qui travaille à l’Institut des neurosciences cognitives de l’University Collège de Londres, où Il dirige une équipe d’une dizaine de chercheurs.

Auteur: Internet

Info: http://www.neotrouve.com/?p=4496, 18 octobre 2013. Le livre de Benjamin Libet écrit trois ans avant sa mort en 2007 et traduit pour les éditions Dervy sous le titre L’esprit au-delà des neurones, témoigne d’une vie de recherche qui aura influencé autant les neurosciences que nourri nombre de débats en philosophie. D’ailleurs l’ouvrage, rétrospective des travaux et des découvertes du chercheur, porte un sous-titre programmatique qui atteste de cette double-entrée philosophique et scientifique : Une exploration de la conscience et de la liberté. Les expériences de Libet montrent un décalage de quelques dixièmes de seconde entre l’activité cérébrale et l’accès des sujets d’expérience à leurs propres états subjectifs, états qui correspondent subjectivement à cette activité neuronale. Le décalage temporel constaté n’est donc pas celui qui a lieu entre des états cérébraux et les états mentaux correspondant, mais celui qui a lieu entre les états cérébraux et la conscience d’ordre supérieur qui se porte sur les états mentaux correspondant. Compris de cette façon, un tel décalage ne semble t-il pas logique, conforme à la différence qu’il peut y avoir entre conscience immédiate et conscience réflexive, d’ordre supérieur ?

[ neurosciences ]

 

Commentaires: 0

coïncidences

CES MORTS QUI EN ONT SUPPLANTÉS D'AUTRES

Jean d’Ormesson, écrivain et Académicien français s’est éteint mardi. Le lendemain, c’était au tour de Johnny Hallyday de nous quitter. 

Lady Di et Mère Teresa,

Lady Di est morte un 31 août, éclipsant malgré elle le décès de son amie Mère Teresa, disparue cinq jours plus tard.

Jean Cocteau et Edith Piaf

Edith Piaf meurt le 10 octobre 1963 à Grasse, mais son ami Jean Cocteau apprend la nouvelle le lendemain. Il se se serait écrié : "C'est le bateau qui achève de couler. C'est ma dernière journée sur cette terre."  Avant de s'éteindre lui-même une demi-heure plus tard. Ce qui semble bien être un légende

Farrah Fawcett et Michael Jackson

La femme au sourire et brushing les plus célèbres des années 1970, s'est éteinte des suites d'un cancer le même jour que Michael Jackson, le 25 juin 2009, à l'âge de 62 ans. Les obsèques de l'actrice américaine ont eu lieu mardi 30 juin à Los Angeles, dans la cathédrale Notre-Dame-des-Anges. Seulement quelques dizaines d'admirateurs s'étaient réunis à l'extérieur de l'église pour un ultime hommage à l'actrice. 

De l'autre côté, Michael Jackson, fut inhumé jeudi 3 septembre au soir dans la plus stricte intimité.  

River Phoenix et Federico Fellini 

En 1993, le jeune acteur prometteur River Phoenix, 23 ans, meurt d'une overdose à la sortie d'une boîte de nuit, dont Johnny Depp est co-propriétaire, le soir d'Halloween-  Le jour précédent cette nuit tragique, le monde faisait ses adieux à l'un des plus grands et célèbres réalisateurs italiens du XXe siècle : Federico Fellini. Une mort totalement occultée par Hollywood et la presse américaine, qui se focalisent davantage sur le décès brutal de la jeune star montante. 

Ingmar Bergman et Michelangelo Antonioni

30 juillet 2007 : jour de deuil pour le septième art qui dit adieu à deux géants. Michelangelo Antonioni – cinéaste italien tourné vers la modernité et célébré pour ses films "Blow Up" ou "l'Avventura" – et Ingmar Bergman – cinéaste suédois connu pour son œuvre marquée par des questionnements sur le couple, la mort, la solitude, dont notamment "le Silence" – meurent le même jour. 

Aldous Huxley, C. S. Lewis et JFK  

Les deux écrivains sont morts le même jour, le 22 novembre 1963. Une date qui vous rappelle sûrement autre chose : celle de l'assassinat du président américain John Fitzgerald Kennedy. Non seulement les deux romanciers meurent le même jour que le président en exercice d'une des plus grandes puissances mondiales, mais ils tombent en plus sur celui dont la mort reste un des grands mystères du XXe siècle.

Prokofiev et Staline 

Le compositeur russe Sergueï Prokofiev meurt le 5 mars 1953 à Moscou, à une heure d'intervalle du dirigeant soviétique Staline. "La Pravda", journal du parti bolchévique, se concentre alors exclusivement sur la mort du "petit père des peuples" et met même... plusieurs jours avant d'annoncer celle de Prokofiev.

John Adams et Thomas Jefferson

En plus d'avoir exercé le même prestigieux et tant désiré métier, ils sont morts le même jour, à quelques heures d'intervalle. John Adams et Thomas Jefferson, les deuxième et troisième présidents des Etats-Unis, se sont suivis dans la mort le 4 juillet 1826. Le jour commun de leur décès est également celui de... la fête nationale américaine. Plus intriguant encore pour tous les adeptes des théories du complot en tout genre : le 4 juillet 1826 marque les 50 ans jour pour jour de la signature de la Déclaration d'indépendance, que John Adams et Thomas Jefferson avaient co-rédigée.

William Shakespeare et Miguel de Cervantes

Il y a également ceux qui meurent le même jour sans que ce soit le même jour. C'est le cas de William Shakespeare et Miguel de Cervantes qui meurent le 23 avril 1616... mais pas la même journée ! 

Une bizarrerie due au calendrier. L'Espagne, tout comme la France, était passée dès 1582 au calendrier grégorien (celui qui toujours en vigueur aujourd'hui), tandis que la Grande-Bretagne a conservé l'ancien calendrier (le calendrier julien) jusqu'en 1752.

En réalité, Cervantes est donc mort onze jours après Shakespeare. 

Auteur: Internet

Info: Mix de Mg, entre autres pompé sur le texte de Barbara Krief sur https://www.nouvelobs.com/

[ célébrités ] [ vedettes ] [ personnages ]

 

Commentaires: 0

Ajouté à la BD par miguel