Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 109
Temps de recherche: 0.062s

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

syndrome cognitif

Dans un de ses cours consacrés aux mécanismes cérébraux impliqués dans la lecture, Stanislas Dehaene, professeur au Collège de France, citait cet extrait de Feu pâle, de Vladimir Nabokov : "Nous sommes absurdement accoutumés au miracle de quelques signes écrits capables de contenir une imagerie immortelle, des tours de pensée, des mondes nouveaux avec des personnes vivantes qui parlent, pleurent, rient. (…) Et si un jour nous allions nous réveiller, tous autant que nous sommes, et nous trouver dans l’impossibilité absolue de lire ?"

Comme c'est en général la règle dans les études de cas, on n'aura que ses initiales. Institutrice américaine de quarante ans, M. P. a eu la douleur de faire de l'hypothèse de Nabokov sa réalité. Racontée le 7 janvier dans la revue Neurology, son histoire commence un jeudi d'octobre 2012, en classe, devant ses jeunes élèves de maternelle. Comme tous les matins, l'enseignante doit faire l'appel. Mais à sa grande surprise, la liste de présence dont elle se sert tous les jours est couverte de signes mystérieux auxquels elle ne comprend goutte. Ainsi qu'elle se le rappelle, la feuille "aurait pu aussi bien être couverte de hiéroglyphes". Les notes qu'elle a préparées pour faire sa classe s'avèrent elles aussi incompréhensibles... M. P. rentre chez elle ce jeudi et, au cours des 48 heures qui suivent, elle éprouve de nouvelles difficultés : elle a du mal à trouver ses mots et sa réflexion est ralentie. Le samedi, sa mère l'emmène aux urgences.

C'est un accident vasculaire cérébral (AVC) qui a causé tout cela. M. P. ne s'est rendue compte de rien mais, dans son cerveau, une petite zone située dans la région occipito-temporale gauche s'est déconnectée et elle restera hors service toute sa vie. On la connaît sous le nom d'aire de la forme visuelle des mots (AFVM) et c'est elle qui est responsable de l'identification visuelle de l'écrit. Cette désactivation n'interrompt pas l'accès au reste des aires cérébrales impliquées dans le langage. M. P. comprend ce qu'on lui dit, parle normalement mais elle ne peut plus lire. En revanche, elle sait toujours écrire ! Les neuroscientifiques parlent d'alexie (incapacité à lire) sans agraphie (incapacité à écrire) ou bien d'alexie pure. Les cas sont très rares et le premier que la littérature scientifique recense est un cas français, décrit en 1892 par le neurologue Jules Dejerine.

M. P. croit d'abord que la zone lésée s'est juste remise à zéro et qu'avec les outils qu'elle connaît bien, elle va pouvoir réapprendre à lire. Et elle ne veut pas laisser sa passion pour les mots écrits s'envoler sans se battre. Mais la porte est fermée et pour de bon : M. P. ne peut pas faire du "b-a ba", tout simplement parce qu'elle ne "voit" ni les "b", ni les "a". Le message que ses yeux lui envoient à la vue des lettres arrive bien à son cerveau mais il ne passe pas la douane des mots. Toutefois, M. P. est tenace. Elle s'aperçoit qu'un autre sens que la vue peut venir à sa rescousse et c'est probablement ce qui fait la beauté de son cas, si l'on met de côté l'ironie cruelle qu'il y a à voir une spécialiste de l'apprentissage de la lecture frappée d'alexie.

Sa roue de secours, M. P. va la trouver dans... le geste. Ses yeux ne lui sont pas d'une grande aide mais sa main a encore la mémoire des lettres tracées. En voyant un mot, l'enseignante ne reconnaît pas la première de ses lettres. Alors, elle se met à dessiner avec le doigt toutes les lettres de l'alphabet, jusqu'à ce qu'elle arrive à celle dont elle voit la forme sans savoir le nom. L'exemple donné dans l'étude est celui du mot "mother" (mère en anglais). M. P. utilise son astuce pour les trois premières lettres, "m", "o" et "t", puis elle complète le mot d'elle-même. Les auteurs de l'article précisent d'ailleurs que, dans son travail de rééducation, M. P. a de vagues réminiscences à la vue de certains mots, des "émotions qui semblent appropriées". Ainsi, à la vue du mot "dessert", elle s'exclame : "Oh, j'aime ça !" En revanche, en voyant le mot "asperge", elle explique ne pas vouloir le déchiffrer car quelque chose en lui la dérange.

Malgré tous ses efforts, malgré la "béquille" qu'elle a trouvée pour déchiffrer, très laborieusement, quelques mots, M. P. ne relira plus jamais de manière automatique et fluide. Elle a dû abandonner son métier et travaille désormais à l'accueil d'un centre sportif. Lire une histoire aux enfants, comme elle le faisait dans sa classe, est la chose qui lui manque le plus, plus encore que dévorer un ouvrage pour elle-même. Et elle a l'intention d'écrire les mémoires d'une institutrice qui ne sait plus lire.

Auteur: Barthélémy Pierre

Info: 9 janvier 2014, sur son blog. Le cas décrit ici est très similaire à celui d'Howard Engel

[ altération mentale ]

 
Commentaires: 3
Ajouté à la BD par miguel

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

technologie

Comment Internet modifie le cerveau
L'écran aspire-t-il notre cerveau ?
À force de passer des milliers d'heures à naviguer sur Internet, Nicholas Carr en est arrivé à une conclusion : Internet modifie l'esprit. Dans son dernier livre, Internet rend-il bête ?*, le journaliste et écrivain américain constate, comme de nombreux " travailleurs de l'écran ", qu'il a de plus en plus de mal à se concentrer sur une tâche complexe, ou même à ne faire qu'une seule chose à la fois. La vie en mode zapping fait des dégâts. " J'ai le sentiment désagréable que quelqu'un, ou quelque chose, bricole avec mon cerveau ", explique-t-il. Amoureux du Net, l'auteur a d'autant plus de difficultés à en dire du mal : Internet " est un si bon serviteur qu'il serait déplacé de remarquer qu'il est aussi notre maître ", s'amuse-t-il.
Ce qui importe, selon Nicholas Carr, ce n'est pas tant le contenu diffusé par les médias que la façon de les diffuser. " Les médias opèrent leur magie, ou leurs méfaits, sur le système nerveux lui-même ", explique-t-il. Notre cerveau est enfermé dans la boîte crânienne, ce qui nous laisse penser - à tort - qu'il serait insensible aux événements extérieurs ; qu'il les capterait et les analyserait sans en subir les influences. Mais " le cerveau est et sera toujours un chantier en cours ", rappelle l'auteur.
L'esprit devient affamé
Reprenant la thèse selon laquelle l'activité du cerveau le modèle et le façonne en permanence, comme l'eau qui coule dans le sable crée des chemins qu'elle empruntera toujours par la suite, Nicholas Carr tire la sonnette d'alarme. Les " médias électriques " ont changé notre façon de percevoir le monde. Radio, télévision, Internet : tous nous crient l'urgence de les consulter, au contraire des journaux papier et des " livres poussiéreux " d'antan, qui nous chuchotaient qu'on avait tout le temps pour les consulter au calme.
Résultat : "Le plongeur qui, naguère, explorait l'océan des mots, en rase maintenant la surface à la vitesse de l'éclair." Dans un clin d'oeil à Descartes, Nicholas Carr affirme même que " nous devenons ce que nous pensons ". L'effet est pire sur les jeunes, qui sont nés avec Internet. Selon une étude citée dans l'ouvrage, certains enfants trop habitués aux pages web ne sauraient plus vraiment lire une page de haut en bas et de gauche à droite. L'addiction est aussi présente : " Mon esprit n'était pas seulement à la dérive, il avait faim. Il demandait à être alimenté comme le Net le nourrit - et plus il était nourri, plus il avait faim. " La " surcharge cognitive " est telle que la capacité à réfléchir est menacée.
Nouvelle ère
Un constat alarmant ? Pas forcément. Nicholas Carr entrevoit une nouvelle ère pour la pensée, qui nous sortirait définitivement des Lumières et du rationalisme. En jeu, de nouveaux mécanismes cognitifs, dont on ne sait pas encore s'ils sont meilleurs ou moins bons que ceux que nous avions tous il y a encore vingt ans.
L'habitude du zapping, par exemple, permet de traiter plusieurs tâches à la fois de façon plus efficace, mais réduit la capacité à résoudre des problèmes complexes, et à mémoriser des souvenirs. Autre exemple : la généralisation du guidage GPS atrophie la partie du cerveau chargée de l'orientation dans l'espace, mais libère du temps et des neurones pour d'autres activités. Pour le moment, nous savons simplement que nous avons " sacrifié des parties de notre cerveau " au profit d'autres apports, que nous commençons tout juste à entrevoir. Reste à savoir si nous serons perdants. Le bilan semble négatif aujourd'hui, mais Carr veut être optimiste : peut-être l'homme apprendra-t-il bientôt a tirer profit de sa nouvelle capacité à ne jamais se concentrer...
Commentaire : Euh... pardon? Sa "nouvelle capacité"?
Demain, tous transformés
Ceux qui passent des heures sur leur écran et qui, le soir venu, se demandent ce qu'ils ont fait de leur journée, se reconnaîtront bien dans le livre de Nicholas Carr. Certains passages les feront sourire, notamment le récit de sa tentative de désintoxication durant la rédaction du livre. " Le démantèlement de ma vie en ligne ne s'est pas fait sans douleur [...] De temps en temps, je m'offrais une journée entière d'orgie sur le Net ", raconte-t-il.
Seul regret, la traduction depuis l'anglais du vocabulaire technique n'est pas toujours parfaite. Par exemple, le sigle ISP, qui signifie " Internet Service Provider ", c'est-à-dire fournisseur d'accès à Internet, n'est ni expliqué ni traduit. L'abonnement (account) qui va avec est traduit par " compte ". Quelques lignes plus loin, c'est la connexion broadband (haut-débit) qui est traduite par " large bande ". Mais ces petits détails ne sont pas gênants pour la compréhension. Internet rend-il bête ? n'en est pas moins un ouvrage ambitieux, qui essaie de cerner les évolutions du cerveau et de la pensée à l'ère numérique, et de nous préparer à ce qui nous attend dans le monde encore plus connecté de demain. Un livre à recommander à tous les forçats du Web !

Auteur: Internet

Info: Science de l'Esprit, Le Point 10 novembre 2011

[ sociologie ] [ lecture ]

 

Commentaires: 0

extensibilité FLP

Le langage, si on approfondit la connaissance qu'on en a, révèle et circonstancie la priméité de C.S. Peirce. C'est à dire qu'on grandit avec et en lui, tout comme le monde extérieur dont nous sommes issus se développe et se définit via une science qui en dévoile petit à petit les détails au fur et à mesure de ses progrès et affinements. Malgré le différentiel de complexité inouï qui existe entre langages-vocabulaires et sciences-rationalismes. Pour s'en rendre compte amusons nous simplement à prendre exemple sur les millions de protéines différentes recensées de nos jours, et comparer ce très partiel et scientifique listing protéique de notre réel avec nos vocabulaires.  

Il y a le premier livre... et le second. Le second se divisant dans notre idée en deux parties 1) Linguistique subjective et 2) scientifico-informatique objective.

Il n'en reste pas moins que mots et langages afférents développent suffisamment de méandres et de complications pour que n'importe qui qui s'y intéresse puisse, via la lecture, la recherche, le plaisir, l'écriture, etc. y développer sa propre idiosynchrasie. Comme l'arbre qui s'intégre à sa forêt : "la nature individualise et généralise en même temps". Processus orthogonal susceptible d'augmenter et intégrer la variété - en favorisant le développement personnel de chacun au sein du corpus des savoirs verbalisés humains.

Et puis est récemment arrivée l'informatique, cybernétique post-leibnizienne, avec ses divers traitements automatiques du langage. Outils numériques qui permettent l'études des idiomes et dialectes sur trois axes en constante évolution :

a) Le langage du "maintenant présent" que le dictionnaire Internet permet de désambiguer sans cesse. 

b) Le langage devenu métadonnées, telles que manipulées-étudiées-utilisées par les traitements automatique des langues (TAL) ou "machine learning" ou Machine-homme. Avec maintenant Bard et/ou ChatGpt, sortis en mars de cette année,  agents conversationnels apte au compendium d'immenses données et qui peuvent répondre à des questions précises en partant de n'importe quelle idée qu'on leur soumet ; gérant et "précisant" points de vue et réponses en fonction d'algorithmes et autres "transformers" de plus en plus efficaces .

Outils très intéressants, mais aussi extrêmement limités puisqu'il s'agit de compilateurs, (qui donc peuvent difficilement donner leurs sources - ou pas du tout ) et qui ne fonctionnent in fine qu'avec la latence d'un certain a postériori. Agents dialogueurs qui "rebondissent" sur questions et propositions, en fonction des instructions humaines de ses programmateurs. Reste qu'il faut reconnaitre que la puissance perspectiviste de ces bots, et leurs facultés à éviter pas mal de biais humains grâce aux transformers, est assez bluffante. 

On mettra ici aussi l'accent sur les profondes différences sémantiques du terme "intelligence" en français (ensemble des fonctions mentales apte à connaître, comprendre et à s'adapter facilement sur une base rationelle) et en anglais (collecte d'informations ayant une valeur militaire ou politique, tout autant que : capacité d'acquérir et d'appliquer des connaissances et des compétences.) Mais stop.

c) Le langage tel que FLP veut l'aborder, c'est à dire un traitement "Homme-machine", continu, qui propose à des participants qui aiment lire et réfléchir !!!  Oui oui - de faire émerger collectivement (et maintenir à flot) - un dictionnaire intriqué susceptible de développer une réflexion naturelle, organique... humaine collective. Le tout en conservant un minimum de précision sémantique consensuelle. 

Processus FLP francophone qui part évidemment du "terme simple", pour immédiatement s'intéresser aux premières combinaisons, à 2 mots - ou radicaux de mots - et aller vers "plus long et plus complexe" via une incessante quête de compréhension et de partage du consensus sémantique et syntaxique des participants. On pourra parler ici de tropisme vers un genre de logique formelle ensemble. Logique formelle qui recherche l'ouverture puisque ce "monde humain verbalisé" n'a d'autre limite que "le sens contextualisé des mots et des phrases", que ce soit dans le rationnel, la littérature, la poésie, le religieux ou pur imaginaire... ou même la fantaisie potache.

Au passage et pour l'anecdote il y a aussi cette piste "théologico-scientifique" ou "mystico-rationnelle", plutôt d'ordre ludique et maniaque et issue des Dialogue avec l'ange, qui veut s'inspirer et relier les septénaires tels que les recherches et classification humaines ont pu les discerner - et les faire apparaitre à tous niveaux-endroits et échelles possibles.

Partant de l'idée que le sept au-delà de tous les symboles culturels et cognitifs humains, porte en lui une inouie complexité dans la mesure où ce nombre peut s'apprécier géométriquement comme le mélange du cercle et du carré. Mélange, une fois utilisé comme mètre dans le rythme musical, qui nous apparait comme un carrousel infini

Le sept pourra-t'il éventuellement être corrélé un jour de manière plus générale, via par exemple une AI perspectiviste suffisamment puissante pour le faire ? Qui établira plus profondément et formellement un multidimensionnel maillage du réel de la cognition humaine sous cet angle septénaire après l'avoir comparé à d'autres maillages possibles (par 12, ou 5, ou autre).

En attendant de rencontrer - et pouvoir communiquer - avec une autre race, extraterrestre si possible, histoire de voir si pareil angle de perception est éventuellement partagé. 

Si tel est le cas nous pourrons alors parler d'exo-spiritualité ...ou de religion cosmique.

Hon hon hon hon hon hon hon...

Auteur: Mg

Info: avril-mai 2023 *on pourra presque dire ici que la matière nous parle

[ gnose ] [ polydipsique curiosité ] [ théologico-humoristico-mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

transposition

La traduction, c'est aussi un acte créatif

George Sand, Albert Einstein, Picasso, John Lennon... Ces personnages hors du commun sont reconnus pour leur créativité. Mais la création n'est pas l'apanage des scientifiques, artistes et littéraires. La créativité fait aussi partie du quotidien de diverses autres professions, notamment celui des traducteurs.

Quelle est la relation entre créativité et traduction ? Les points de vue sont variés. Une chose est sûre: traduire n'est pas que reproduire ! C'est le sujet qu'a abordé la chercheuse Denise Merkle, de l'Université de Moncton, à l'occasion d'un dîner-conférence organisé par le Comité des conférences-midi du Département de linguistique et de traduction de l'Université de Montréal, avec l'appui de la Faculté des arts et des sciences.

"Depuis plusieurs décennies, des traductologues se sont posé la question afin de mieux comprendre le genre de travail cognitif exigé par l'acte créatif qui consiste à traduire. Des recherches récentes se sont penchées sur l'interdisciplinarité inhérente à la traductologie et sur la pertinence de créer la discipline de l'adaptologie. Je cherche à savoir si des travaux récents sur la créativité pourraient contribuer à approfondir et nuancer la réflexion sur la nature de la relation entre traduction et adaptation", a déclaré d'entrée de jeu Mme Merkle avant de définir ce qu'est la créativité.

De M. et Mme Tout-le-monde à Darwin

Pour la professeure, la créativité est entendue dans le sens très large de la capacité à trouver des solutions originales et utiles aux problèmes ou questions qui se posent. En se référant à l'article Beyond Big and Little: The Four C Model of Creativity, Mme Merkle a expliqué qu'il y a plusieurs types de créativité: mini-c, petit-c, pro-c et grand-c.

Le premier, le mini-c, renvoie aux activités exploratoires en réponse aux expériences nouvelles des individus en début d'apprentissage. La créativité dite petit-c est définie comme "un acte plus réfléchi et basé sur des objectifs personnels qui donnent lieu à des productions moins courantes", note Denise Merkle. Elle s'observe dans les solutions innovantes que chacun peut apporter dans son quotidien. "Cela peut être une nouvelle recette ou une solution de traduction inattendue", fait remarquer la chercheuse.

Pour accéder au niveau pro-c, soit celui des professionnels, il faut compter une bonne dizaine d'années, puisqu'il exige un "progrès considérable et volontaire" soutenu souvent par une formation et de nombreuses réalisations. Cela rappelle un peu la "règle des 10 000 heures" énoncée au début des années 90 par le psychologue suédois K. Anders Ericsson, une théorie selon laquelle on ne peut atteindre l'excellence dans une discipline qu'après avoir passé 10 000 heures à la pratiquer.

Mais attention ! Tous les professionnels d'un domaine créatif ne parviendront pas nécessairement au niveau pro-c, indique Mme Merkle. "Un traducteur peut gagner sa vie dans les industries de la langue sans faire preuve de créativité pro-c."

Enfin, la créativité avec un C majuscule, le grand-c, produit des ruptures. C'est le type de créativité qui "change le monde" ou provoque des changements culturels, technologiques, scientifiques, comme l'ont fait les travaux de Charles Darwin ou les oeuvres de Pablo Picasso.

Existe-t-il un lien entre la créativité et la folie ?

"Je ne peux le confirmer scientifiquement, mais il existe de nombreux artistes, notamment des écrivains et des peintres, dont le travail semble appuyer cette hypothèse, admet Mme Merkle. Les créateurs hors du commun sont parfois un peu marginaux. Van Gogh en est un bel exemple." Une étude menée par James C. Kaufman et Ronald A. Beghetto a par ailleurs démontré certains traits de personnalité communs chez les gens créatifs, mentionne la professeure. Au-delà de leur discipline personnelle, ils n'auraient notamment pas peur de prendre des risques.

Les chercheurs ont aussi observé que les gens motivés par la joie et la passion étaient plus créatifs que ceux dont le principal intérêt était l'argent, les louanges ou les bonnes notes.

Le monde de la traduction est bien complexe

Partant de cas concrets des domaines de la traductologie, littéraire et publicitaire, Mme Merkle a illustré la créativité à l'oeuvre chez des traducteurs et quelques-unes des difficultés les plus grandes de l'art de traduire. Certaines sont bien connues: la poésie, l'humour et les jeux de mots sont les bêtes noires du traducteur. "La qualité d'une traduction ne réside pas seulement dans ce qu'elle dit, mais aussi dans l'effet qu'elle produit", signale Mme Merkle. Les traductions imagées des poèmes en prose d'Arthur Rimbaud par le linguiste Clive Scott en témoignent. Le lecteur est invité à parcourir le double chemin qui va du poème de Rimbaud à sa conversion en images et en mouvements par Scott. Ce qui entraîne forcément une charge suggestive nouvelle. La démarche ne plaît pas forcément à tous et est discutable.

Pour plusieurs spécialistes, toute traduction littéraire est une oeuvre originale, car, même si le texte n'est pas du traducteur, celui-ci doit faire des choix et son style d'écriture est souvent reconnaissable. Mais encore une fois, cela ne fait pas l'unanimité, rappelle Mme Merkle.

Puis, il y a les contraintes inhérentes aux publicités dont l'effet humoristique repose sur une illustration. "Il va sans dire que l'articulation du verbal et du visuel entraîne une modification du contenu sémantique, explique la chercheuse. Mais quelle est la limite de la recréation ? Est-il possible de déterminer si les types de créativité repérés dans les traductions diffèrent de ceux mis au jour dans les adaptations et, si la réponse est oui, comment se distinguent-ils ?" C'est ce que permettront de découvrir ses travaux.

Auteur: Internet

Info: Université de Montréal, 10/03/2019

[ hiérarchisation ] [ réinvention ] [ ressusciter ] [ re-création ] [ décentrages ] [ visionnaires ] [ texte-image ]

 

Commentaires: 0

Ajouté à la BD par miguel

élément sémantique structurant

(FLP) - Bonjour, peux-tu m'expliquer la notion de "point de capiton" de Jacques Lacan ?

(Gemini Bard) - Le point de capiton est un concept central dans la théorie psychanalytique de Jacques Lacan. Il s'agit d'un élément crucial qui permet de stabiliser le sens et de donner une cohérence au discours. Emprunté au vocabulaire du matelassage, le terme "point de capiton" désigne le point où l'aiguille du matelassier s'enfonce dans le tissu et en ressort, laissant une marque durable. Lacan utilise cette métaphore pour illustrer la manière dont certains éléments du discours s'accrochent et fixent le sens, le stabilisent et lui donnent une structure.

Le point de capiton n'est pas un élément statique, mais plutôt un point de fuite, un lieu d'articulation où le sens se déploie et se reconfigure. Il peut s'agir d'un mot, d'une phrase, d'un objet, d'un événement, ou même d'une croyance ou d'un idéal.

Le point de capiton joue un rôle important dans la construction du sujet. Il permet au sujet de s'identifier à un certain discours, de se positionner dans le monde et de donner du sens à ses expériences.

Cependant, le point de capiton est également fragile et peut être remis en question. Dans la psychose, par exemple, le point de capiton peut s'effondrer, ce qui entraîne une fragmentation du discours et une perte de sens.

Voici quelques points clés à retenir à propos du point de capiton :

Stabilisation du sens: Le point de capiton permet de stabiliser le sens et de donner une cohérence au discours.

Point de fuite: Le point de capiton n'est pas un élément statique, mais plutôt un point de fuite où le sens se déploie et se reconfigure.

Construction du sujet: Le point de capiton joue un rôle important dans la construction du sujet.

Fragilité: Le point de capiton est également fragile et peut être remis en question.

Le point de capiton est un concept complexe et multidimensionnel qui a fait l'objet de nombreuses interprétations et débats au sein de la psychanalyse lacanienne.

(FLP) - Merci. J'y vois une correspondance, voire même une analogie avec le terme de saillance utilisé en PNL et plus largement en linguistique. Non ?

(Gemini Bard) Effectivement, il existe une certaine correspondance entre le concept de point de capiton de Lacan et celui de saillance en PNL et en linguistique.

La saillance désigne la qualité de ce qui est saillant, c'est-à-dire proéminent, marquant, qui attire l'attention. Elle se réfère aux éléments du discours qui se distinguent du reste et qui ont tendance à avoir une plus grande influence sur la compréhension et l'interprétation de ce discours.

Comme le point de capiton, la saillance joue un rôle important dans la structuration du sens. En effet, les éléments saillants permettent de hiérarchiser les informations, de créer des liens entre les différentes parties du discours et de guider l'attention de l'auditeur.

Voici quelques points de convergence entre les deux concepts :

Stabilisation du sens: Le point de capiton et la saillance contribuent tous deux à stabiliser le sens et à donner une cohérence au discours.

Attraction de l'attention: Le point de capiton et la saillance attirent tous deux l'attention de l'auditeur ou du lecteur.

Organisation du discours: Le point de capiton et la saillance contribuent tous deux à l'organisation du discours et à la création de liens entre les différentes parties du discours.

Cependant, il existe également des différences entre les deux concepts :

- Nature: Le point de capiton est un concept plus psychanalytique, tandis que la saillance est un concept plus linguistique et cognitif.

- Focalisé: Le point de capiton est généralement focalisé sur un élément unique, tandis que la saillance peut porter sur plusieurs éléments du discours.

- Inconscient: Le point de capiton est souvent inconscient, tandis que la saillance peut être consciente ou inconsciente.

En conclusion, le point de capiton et la saillance sont deux concepts distincts mais qui partagent certaines similitudes. Ils permettent tous deux de comprendre comment le sens est construit et structuré dans le discours.

(FLP) - Merci. Peux-tu donner un exemple de point de capiton unique ?

(Gemini Bard) - Exemple de point de capiton unique

Prenons l'exemple de la phrase suivante : "La peur de la mort me paralyse."

Dans cette phrase, le mot "mort" pourrait être considéré comme un point de capiton. En effet, ce mot :

Attire l'attention: Il est le mot le plus chargé d'émotion de la phrase et il est ce qui motive la peur du sujet.

Structure le sens: La phrase tourne autour de la peur de la mort et tous les autres éléments de la phrase sont liés à cette peur.

Est inconscient: La peur de la mort est souvent un phénomène inconscient qui n'est pas directement exprimé par le sujet.

Cependant, il est important de noter que le point de capiton n'est pas toujours un élément unique et identifiable. Il peut s'agir d'une combinaison de plusieurs éléments du discours qui, ensemble, contribuent à stabiliser le sens et à donner une cohérence au discours.

Par exemple, dans la phrase "Je suis amoureux de Marie", le point de capiton pourrait être la combinaison des mots "amoureux" et "Marie". Ces deux mots sont essentiels pour comprendre le sens de la phrase et ils sont étroitement liés l'un à l'autre.

En fin de compte, l'identification du point de capiton est une question d'interprétation. Il n'y a pas de réponse unique et chaque lecteur ou auditeur peut identifier différents points de capiton dans un même discours. 

Auteur: Google Bard chatbot

Info:

[ langage ] [ dialogue ] [ homme-machine ] [ efficacité cachée ]

 
Commentaires: 2
Ajouté à la BD par miguel

spéculation

Expérience religieuse et cerveau.
Une étude relie certaines expériences religieuses, ou de changement de vie, comme la renaissance (born again), avec une atrophie de l'hippocampe.
L'article "Facteurs religieux et atrophie hippocampale en fin de vie" d'Amy Owen et ses collègues de Duke University présente une avance importante pour notre compréhension croissante du rapport entre cerveau et religion. L'étude a montré une plus grande atrophie de l'hippocampe chez les individus qui s'identifient avec des groupes religieux spécifiques, de même que pour ceux que ceux sans affiliation religieuse. C'est un résultat étonnant, sachant que beaucoup d'études antérieures ont montré que la religion avait des effets potentiellement bénéfiques sur les fonctions du cerveau, l'inquiétude et la dépression.
Un certain nombre d'études ont évalué les effets aigus des pratiques religieuses, telles que la méditation et la prière, sur le cerveau humain. Un plus petit nombre d'études ont évalué les effets à plus long terme de la religion sur le cerveau. De telles études, comme celle-ci, se sont concentrées sur des différences du volume du cerveau ou de certaines fonctions du cerveau chez les personnes fortement impliquée dans la méditation ou les pratiques spirituelles, par comparaison avec celles qui ne le sont pas.
Mais très peu d'études ont exploré les effets longitudinaux de la pratique de la méditation ou des activités spirituelles en évaluant des sujets en deux points temporels différents.
Ici, Owen et les autres ont utilisé le MRI pour mesurer le volume de l'hippocampe, une structure centrale du système limbique, impliquée dans l'émotion aussi bien que pour la formation de la mémoire. Ils ont évalué le MRI de 268 hommes et femmes agés de 58 et plus, recrutés à l'origine pour les résultats Neuro Cognitifs sur la dépression lors d'une ancienne étude. Les gens testés avaient également répondu à plusieurs questions concernant leur croyance et affiliations religieuses. L'étude d'Owen et ses collègues est unique parce qu'elle se concentre spécifiquement sur des individus religieux en les comparant à des gens non-religieux. Cette étude a également séparé les individus entre ceux qui qui "born again" ou ceux qui ont eu leur vie changée par une expérience religieuse.
Les résultats ont montré une atrophie hippocampale sensiblement plus grande chez les individus ayant rapporté une expérience religieuse de "born again". En outre, ils ont montré une atrophie hippocampale sensiblement plus grande chez les protestants, les catholiques avec ceux sans affiliation religieuse, comparée aux protestants ne s'identifiant pas comme born again.
Les auteurs présentent l'hypothèse que l'atrophie hippocampal plus grande dans les groupes religieux choisis pourrait être liée au stress. Ils arguent du fait que certains individus d'une minorité religieuse, ou ceux qui luttent avec leur croyance, expériencent des niveaux plus élevés de stress. Ceci causant un plus grand dégagement d'hormones d'effort, connues pour diminuer le volume de l'hippocampe avec le temps. Ceci pourrait également expliquer le fait que tout aussi bien les les non-religieux que quelques religieux aient de plus petits volumes hippocampals.
Cette hypothèse intéresse. Beaucoup d'études ont montré les effets positifs de la religion et de la spiritualité sur la santé mentale, mais il y a également abondance d'exemples d' impacts négatifs. Il y a une évidence que les membres de groupes religieux qui sont persécutés, ou dans une minorité, pourraient avoir plus de stress et d'inquiétude quand ils doivent naviguer dans la société. D'autres fois, une personne pourrait percevoir Dieu comme celui qui punit et donc avoir un stress significatif face à une lutte religieuse. D'autres éprouvent un conflit religieux en raison d'idées contradictoires entre leur tradition religieuse et/ou leur famille. Même une expérience très positive de changement de vie pourrait être difficiles à incorporer dans une système religieux donné pour la croyance de l'individu et ceci pourrait également mener à l'effort et à l'inquiétude. Les transgressions religieuses perçues peuvent causer une angoisse émotive et psychologique. Il peut être difficile de distinguer cette douleur "religieuse" et "spirituelle" de la douleur physique pure. Et tous ces phénomènes peuvent avoir des effets potentiellement négatifs sur le cerveau.
Ainsi, Owen et ses collègues posent certainement une hypothèse plausible. Ils citent également certaines des limitations de leurs trouvailles, tels que la petite dimension de l'échantillon testé. Plus important la relation causale entre ces découvertes dans le cerveau avec la religion reste très difficile à établir. Est il possible, par exemple, que les personnes avec de plus petits volumes hippocampals, soient plus prédestinées à avoir un tropisme religieux spécifique, dessinant la flèche causale dans l'autre direction ? De plus, il se pourrait que les facteurs amenant aux événements de "Changement de vie" sont importants et non pas simplement l'expérience elle-même.
Puisque l'atrophie de cerveau reflète tout qui arrive à une personne jusqu'à ce point, on ne peut pas définitivement conclure que l'expérience la plus intense était en fait la chose qui a eu pour conséquence l'atrophie du cerveau. Il y a donc beaucoup de facteurs potentiels qui pourraient mener aux résultats rapportés. (Ils est également quelque peu problématique que l'effort lui-même ne se soit pas corrélé avec les volumes hippocampal puisque c'est une des hypothèses potentielles proposées par les auteurs. Ce qui de fait parait miner les conclusions.) L'on pourra alors se demander s'il est possible que les gens qui sont plus religieux souffrent d'un plus grand stress inhérent, mais que leur religion les aide à se protéger d'une certaine manière. La religion est fréquemment citée comme un important mécanisme pour faire face au stress et à l'effort.
Cette nouvelle étude est intrigante et importante. Elle nous incite à réfléchir davantage sur la complexité du rapport entre religion et cerveau. Ce champ d'étude, désigné sous le nom du neuro théologie, pourrait faire avancer notre compréhension de la religion, de la spiritualité et du cerveau. D'autres études à venir sur les effets aigus et chroniques de la religion avec le cerveau seront très intéressantes pour valider certaines de ces idées. Pour l'instant, nous pouvons être certains que la religion affecte le cerveau - mais nous ne savons pas comment.

Auteur: Newberg Andrew

Info: Scientific American, 31 mai 2011

[ biologie ] [ esprit ]

 

Commentaires: 0

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

gafam

"Beaucoup de ficelles invisibles dans la tech nous agitent comme des marionnettes."

Ancien ingénieur de Google, Tristan Harris dénonce les pratiques de son ancien employeur et des grands groupes de la Silicon Valley. Il exhorte les chefs d'États et citoyens à exercer un contre-pouvoir contre leur influence nocive. Cet ancien ingénieur employé de Google, spécialiste en éthique en technologies, alerte depuis plusieurs années le monde des technologies sur les dérives qu'il a contribué à créer. Avec un certain succès. Son initiative "déconnexionniste" Time Well Spent a fait de lui un speaker remarqué et invité par les PDG de la tech. Désormais, il vise les citoyens. À l'occasion de sa tournée européenne, des couloirs de Bruxelles à l'Elysée, en passant par le MAIF Social Club. Le Figaro l'a rencontré.

- Pourquoi êtes-vous parti en guerre contre les réseaux sociaux et les géants du Web?

- TH Ces entreprises sont devenues les acteurs les plus puissants au monde, plus que les États. Nous sommes 2 milliards à être sur Facebook, soit davantage de fidèles qu'en compte le christianisme. 1,5 milliard sur YouTube chaque mois, soit plus de fidèles qu'en compte l'Islam. Et à partir du moment où nous éteignons l'alarme de nos smartphones - que nous consultons en moyenne 150 fois par jour - nos pensées vont être perturbées par des pensées que nous n'avons pas choisies, mais que les entreprises technologiques nous soumettent. En ouvrant Instagram, on observe que ses amis se sont amusés sans vous. Cette idée ne vous serait jamais venue sans qu'un acteur des technologies ne l'ait faite advenir.

- En quoi est-ce si grave? Les réseaux sociaux finissent par construire une réalité sociale alternative. Cela pose des problèmes de santé publique, notamment chez les plus jeunes qui sont sans cesse soumis à des images de leurs amis montrés sous leur meilleur jour et ont une vision déformée de la normalité. Cela pose aussi des problèmes de polarisation: les réseaux sociaux ont tendance à mettre en avant les comportements extrêmes, ce qui pose un troisième problème, cette fois-ci démocratique, car cela influence l'opinion. La question relève enfin de l'antitrust: ces entreprises ont un pouvoir inégalable avec toutes les données qu'elles manipulent chaque jour. "Non seulement Facebook sait quelle photo de votre ex-petite amie vous regardez sur Instagram, mais aussi quels messages vous écrivez sur WhatsApp."

- Les concepteurs de ces technologies sont-ils conscients d'exercer un tel pouvoir?

- Non! Il y a beaucoup de personnes qui ont une conscience dans la Silicon Valley et s'inquiètent des conséquences de leur travail. Mais si on y réfléchit bien, quand on a entre 20 et 30 ans, qu'on est un jeune ingénieur qui n'a jamais rien fait d'autre que coder et qu'on débarque chez Google, on pense avant tout à toutes les choses incroyables que l'on peut réaliser avec son travail. Pas aux instabilités géopolitiques que ces outils peuvent permettre de créer. Les employés de ces grandes entreprises ne réalisent pas leur pouvoir.

- N'est-ce pas la faute d'une culture d'entreprise qui déresponsabilise ses employés? - Ces entreprises font en sorte que les employés n'aient pas une image "globale" de l'impact de leur travail. Je pense que des comparaisons historiques peuvent être faites avec des régimes autoritaires. J'ai beaucoup étudié le fonctionnement des cultes et j'y vois aussi des similitudes. Quand Facebook répète sans cesse cette devise, "nous aidons le monde à être plus connecté", cela devient performatif et on ne voit plus que cela.

- Les employés de Facebook sont payés très cher pour ne pas se poser de questions.

- De la même façon, ils ne parlent pas d'un problème d'addiction aux technologies mais d'"engagement". Et ils ne disent pas à leurs ingénieurs de concevoir des outils de manipulation des esprits mais des outils pour "augmenter l'engagement sur de la publicité ciblée", car aucun ne voudrait travailler pour eux sinon. Pour reprendre l'écrivain Upton Sinclair, vous ne pouvez pas demander à des gens de se poser des questions quand leur salaire dépend du fait de ne pas se les poser. Et les employés de Facebook sont payés très cher pour ne pas se poser de questions.

- N'avez-vous pas l'impression d'utiliser une rhétorique de la peur parfois exagérée à l'égard des technologies?

- Je suis d'accord avec ceux qui me critiquent pour défendre un modèle de la peur! (rires) Parce que fondamentalement, je m'intéresse à la question du pouvoir, et qu'il y a une sorte de vérité dérangeante dans la Silicon Valley. Plusieurs PDG comme Eric Schmidt (ex-Google) ou Mark Zuckerberg (Facebook) ont déclaré que la vie privée était morte. Aujourd'hui, avec une intelligence artificielle entraînée, je peux en effet établir votre profil psychologique en étudiant vos clics, vous identifier à travers votre géolocalisation dans moins de cinq lieux, mesurer votre taux de stress ou d'excitation avec la reconnaissance faciale. Nous allons vivre dans un monde où de plus en plus de technologies vont intercepter des signaux de ce que nous pensons avant même que nous n'ayons conscience de le penser, et nous manipuler.

- Avez-vous l'impression que vos idées sont entendues par le grand public?

- Les gens n'ont pas conscience de l'ampleur de ce que l'on peut déjà faire avec de la publicité ciblée. Il est facile de se dire que nous sommes informés ou éduqués, et que cela ne nous arrive pas à nous, plus malins que les autres. Je veux éveiller les consciences là-dessus: absolument tout le monde, sans exception, est influencé par des ressorts qu'il ne voit pas. Exactement comme dans les tours de magie.

- Comment cela fonctionne-t-il concrètement?

- "Absolument tout le monde, sans exception, est influencé par des ressorts qu'il ne voit pas". Il y a beaucoup de "dark patterns" dans les technologies, c'est-à-dire des ficelles invisibles qui nous agitent comme des marionnettes. Elles reposent sur la captation d'attention par les biais cognitifs, l'excitation... Par exemple, nous vérifions sans cesse les notifications des téléphones en espérant y voir leurs jolies couleurs vives, nous scrollons car il y a toujours de la nouveauté, nous regardons la prochaine vidéo YouTube car elle est bien suggérée...

- Imaginons maintenant que vous vouliez quitter Facebook: pour vous garder, Facebook pourrait envoyer une notification à l'un de vos amis qui a pris une photo de vous, et lui demander "Veux-tu taguer cette personne?". En général, cette question s'assortit d'un gros bouton bleu marqué "OUI" pour que l'ami clique dessus. Il suffit ensuite à Facebook de vous envoyer un mail pour vous dire "Tel ami vous a tagué sur telle photo" et cela vous incite à revenir. Toute l'industrie de la tech utilise ces ressorts.

- N'est-ce pas seulement une certaine élite qui peut savoir comment échapper à ce type de manipulation?

- Complètement, et c'est bien pour cela que nous voulons forcer les entreprises à changer directement leurs pratiques pour le plus grand nombre. Nous ne pouvons pas souhaiter un monde où seulement 1% de personnes savent comment paramétrer leur téléphone en noir&blanc pour ne plus être autant sollicité par les boutons rouges des notifications, ou savent comment régler leurs paramètres. Nous devons faire en sorte que le design de l'attention soit vertueux par défaut, que les modèles économiques de ces entreprises reposent moins sur le temps passé. Google vient de le faire et cela établit un précédent qui pourrait pousser Apple à faire de même.

- Peut-on vraiment avoir confiance quand ces entreprises prétendent nous guérir de l'addiction ou des manipulations qu'elles ont elles-mêmes créées ?"

- Pour moi, c'est le rôle de Facebook de veiller à ce qu'une élection ne soit pas manipulée, et le rôle de Google de restreindre notre addiction. Pour autant, nous ne devons pas les croire sur parole, car ils ont toujours un pouvoir considérable. Facebook est comme un prêtre qui écouterait les confessions de 2 milliards d'individus, sauf que la plupart ne savent même pas qu'ils passent à confesse! Non seulement ils savent quelle photo de votre ex-petite amie vous regardez sur Instagram, mais aussi quels messages vous écrivez sur WhatsApp. Avec leurs traceurs sur plus d'un tiers des sites internet, ils savent que vous songez à changer d'assureur avant même que vous ayez franchi le cap. Ils savent aussi ce que vous allez voter. Et ils vendent ce savoir à des marques pour qu'au confessionnal, on vous suggère telle ou telle action. Je ne dis pas que Facebook et son confessionnal virtuel ne devraient pas exister, mais je dis qu'il ne devrait pas avoir un modèle économique qui ait autant de pouvoir. L'Europe va sombrer si nous ne changeons pas ce système.

Auteur: Harris Tristan

Info: Interview d'Elisa Braun, le Figaro, 31/05/2018

[ big brother ] [ PNL ] [ culture de l'epic fail ] [ captage de l'attention ]

 

Commentaires: 0