Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 81
Temps de recherche: 0.053s

objet d'investissement

Qu’est-ce qui différencie le deuil de la mélancolie ?

Pour le deuil, il est tout fait certain que sa longueur, sa difficulté, tient à la fonction métaphorique des traits conférés à l’objet de l’amour, en tant qu’ils sont des privilèges narcissiques. […] Freud insiste bien sur ce dont il s’agit – le deuil consiste à identifier la perte réelle, pièce à pièce, morceau par morceau, signe à signe, élément grand I à élément grand I, jusqu'à épuisement. Quand cela est fait, fini. […]

L'affaire ne commence à devenir sérieuse qu'à partir du pathologique, c’est-à-dire de la mélancolie. L'objet y est, chose curieuse, beaucoup moins saisissable pour être certainement présent, et pour déclencher des effets infiniment plus catastrophiques, puisqu'ils vont jusqu'au tarissement de ce que Freud appelle le sentiment le plus fondamental, celui qui vous attache à la vie.

[…] Quels traits se laissent-ils voir d'un objet si voilé, masqué, obscur ? Le sujet ne peut s’attaquer à aucun des traits de cet objet que l’on ne voit pas, mais nous analystes, […] nous pouvons en identifier quelques-uns à travers ceux qu'il vise comme étant ses propres caractéristiques à lui. Je ne suis rien, je ne suis qu’une ordure.

Remarquez qu'il ne s'agit jamais de l'image spéculaire. Le mélancolique ne vous dit pas qu'il a mauvaise mine, ou qu'il a une sale gueule, ou qu'il est tordu, mais qu'il est le dernier des derniers, qu'il entraîne des catastrophes pour toute sa parenté, etc. Dans ses accusations, il est entièrement dans le domaine du symbolique. Ajoutez-y l'avoir - il est ruiné. Cela n’est-il pas fait pour vous mettre sur la voie ?

[…] Il s'agit de ce que j'appellerais, non pas le deuil ni la dépression au sujet de la perte d'un objet, mais un remords d'un certain type, déclenché par un dénouement qui est de l'ordre du suicide de l'objet. Un remords donc, à propos d'un objet qui est entré à quelque titre dans le champ du désir, et qui, de son fait, ou de quelque risque qu'il a couru dans l'aventure, a disparu.

[…] La voie vous est tracée par Freud, quand il vous indique que déjà dans le deuil normal la pulsion que le sujet retourne contre soi pourrait bien être une pulsion agressive à l’endroit de l’objet. Sondez ces remords dramatiques quand ils adviennent. Vous verrez peut-être qu’il revient ici contre le sujet une puissance d’insultes qui peut être parente de celle qui se manifeste dans la mélancolie. Vous en trouverez la source dans ceci – cet objet, s’il a été jusqu’à se détruire, ce n’était donc pas la peine d’avoir pris avec lui tant de précautions, ce n’était donc pas la peine de m’être détourné pour lui de mon vrai désir.

Auteur: Lacan Jacques

Info: Dans le "Séminaire, livre VIII - Le transfert" pages 458-459

[ arbitraire ] [ généalogie du signe ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

étiquetage FLP

Lorsqu'Octavio Paz affirme que "traduire est la façon la plus profonde de lire", il interpelle les concepteurs des "fils de la pensée". "La plus profonde" parce que le traducteur doit intégrer la compréhension des mots, la compréhension du sens et celle du climat général du texte/histoire... avant de le transposer dans un autre idiome.

C'est à dire qu'il doit le lire plusieurs fois, chaque fois avec une focale différente, de "points de vue" variés. Il intègre aussi, consciemment ou pas, plein d'autres paramètres : conditions de vie de l'auteur, pays, spécificité de sa langue, de son époque et ses us en coutume, etc... Démontrant par là même la merveilleuse plasticité d'un cerveau, le notre, capable (dans l'idéal) de gérer tous ces niveaux.

La lecture du "tagueur" FLP se différencie de deux manières de celle du traducteur.

PRIMO : étant entendu qu'il lit et parle couramment la langue en question, (qu'il ne doit donc pas traduire), il conserve une vitesse de croisière qui fait que son esprit se soucie beaucoup moins des détails, plus focalisé sur le sens de l'idée ou des phrases qui défilent. Lecteur-miroir il perçoit, reçoit... comprend, ressent. Et boum ! Voilà qu'il tombe sur une formulation qui le frappe, le conforte d'une manière ou d'une autre. Une impression déjà vécue mais jamais exprimée, un agencement des mots, ou de phrases, qui reflètent une réalité pressentie, expériencée... rêvée ? Ici notre lecteur-miroir est déjà en train d'indexer inconsciemment puisque son "être chair-esprit" reconnait (s'identifie à ?) une "idée vraie", une "pensée drôle", "réflexion sage", "parole profonde", etc.

SECUNDO : focalisé sur le sens d'une phrase ou d'un extrait, il doit maintenant repérer la ou les quelques "idées-clefs" du texte en question. Pour ensuite faire sa petite cuisine. Quelles sont-elles ? Sont-elles clairement représentées par des mots de l'extraits ? Si oui quels sont les plus pertinents, et, parmi ceux-ci, le plus important (Catégorie)... Sont-ils déjà dans le corps du texte ? Si oui : quel synonyme utiliser pour focaliser le concept, comment se débrouiller ?

Ce simple extrait, (celui que vous avez devant les yeux !), contient en lui-même beaucoup (tous?) de ces éléments. Ne reste plus qu'à lui joindre les termes catégorie et tags - absents du texte même, et propices à la précision de son indexation. Et l'introduire dans la base de données du logiciel. Pour les auteurs et leur paramètres voir ici.

Pour info les chatbots comme ChatGPT4, Bard, ou autres... sont encore assez loin du compte pour ce qui est de taguer correctement un extrait, en suivant les règles, avant son insertion dans le corpus de cette application, et son éventuelle modération/discussion. Ne qui n'empêche en rien, à l'occasion, de les mettre à contribution, et parfois d'échanger plus avant avec eux à des fin de désambiguation sémantique.

Auteur: Mg

Info: 13 août 2016 - 2024

[ analyse ] [ citation s'appliquant à ce logiciel ] [ réflexivité ] [ onomasiologie ]

 
Mis dans la chaine

Commentaires: 0

empathie

Olivier Collignon et ses collègues ont démontré que les femmes étaient supérieures aux hommes dans le traitement des informations émotionnelles émanant de sources auditives, visuelles et audio-visuelles. Les émotions à l'étude étaient la peur et le dégoût.
Pour cette étude, des modèles vivants, soit des acteurs et des actrices, ont été utilisés pour simuler la peur et le dégoût, plutôt que de simples photographies. "Les mouvements faciaux jouent un rôle important dans la perception de l'intensité d'une émotion et stimule différemment les zones du cerveau impliquées dans le traitement de ces informations", explique Collignon, chercheur à l'Institut de neuroscience à l'Université catholique de Louvain en Belgique. L'étude a aussi mis l'accent sur l'utilisation de stimuli bimodaux: une expression faciale animée jumelée à une voix non verbale.
L'équipe de chercheurs a demandé aux participants de l'étude, 23 femmes et 23 hommes âgés de 18 à 43 ans sans problèmes neurologiques ou psychiatriques, d'identifier l'émotion de la peur et du dégoût le plus rapidement possible par la présentation d'un stimulus auditif, d'un stimulus visuel, d'un stimulus audio-visuel congruent et, finalement, d'un stimulus audio-visuel non congruent, par exemple un visage de peur jumelé à une voix de dégoût, et vice versa. Les femmes différencient plus facilement le dégoût de la peur.
Non seulement les femmes traitent plus efficacement l'information émotionnelle uni sensorielle (expression faciale ou voix), mais sont aussi plus efficaces pour traiter l'intégration de la voix et de l'expression faciale.
Les émotions de la peur et du dégoût ont été privilégiées dans cette étude, car elles ont des fonctions de prévention dans les situations menaçantes et sont donc liées à la survie de l'espèce humaine.
Ces études inter sexes sont nécessaires pour aider les chercheurs à mieux comprendre les maladies mentales qui ont une composante inter genre importante, c'est-à-dire qui affectent différemment les hommes et les femmes. Par exemple l'autisme affecte beaucoup plus d'hommes que de femmes et une de ces caractéristiques est la difficulté à reconnaître l'expression des émotions.
Les chercheurs Baron et Cohen ont mis de l'avant en 2002 une théorie provocante selon laquelle l'autisme pourrait être l'exacerbation du cerveau masculin. Ils ont suggéré que l'autisme et le syndrome d'Asperger seraient l'extrême pathologique du comportement cognitif et interpersonnel mâle, caractérisé par une capacité d'empathie plus limitée et une systématisation accrue. "Nos résultats de recherche démontrant que les hommes identifient et expriment les émotions moins efficacement, renforcent, du moins en partie, cette théorie", reconnaît Olivier Collignon.
Les femmes sont-elles programmées ainsi dès la naissance ou est-ce le résultat de l'expérience de vie? Le fait que certaines différences soient décelables très tôt chez l'enfant alors que les expériences de socialisation sont peu nombreuses laisse croire que la biologie joue un rôle. La psychologie de l'évolution propose comme hypothèse que la femme est dotée de cette disposition biologique à traiter plus efficacement l'information émotionnelle en tant que mère prodiguant les soins aux nouveau-nés et aux enfants en bas âge: elle peut ainsi décoder rapidement la détresse d'un enfant qui ne parle pas encore ou d'un adulte menaçant, augmentant les chances de survie de sa progéniture. "Cela ne doit pas occulter le rôle important de la culture et de la socialisation dans cette différence inter genre", prévient cependant Olivier Collignon.

Auteur: Internet

Info:

[ psychose ] [ femmes-hommes ]

 

Commentaires: 0

homme-machine

Quand la plupart des gens pensent aux risques potentiels de l'intelligence artificielle et du machine learning, leur esprit va immédiatement vers "Terminator" - cet avenir où les robots, selon une vision dystopique, marcheraient dans les rues en abattant tous les humains sur leur passage.

Mais en réalité, si l'IA a le potentiel de semer le chaos et la discorde, la manière dont cela peut se produire est moins excitante qu'un "Skynet" réel. Les réseaux d'IA qui peuvent créer de fausses images et de fausses vidéos - connues dans l'industrie sous le nom de "deepfakes" - impossibles à distinguer du réel, qui pourraient engendrer des risques.

Qui pourrait oublier cette vidéo du président Obama ? Inventée et produite par un logiciel d'intelligence artificielle, une vidéo quasi impossible à distinguer de vraies images.

Eh bien, dans une récente présentation des capacités de l'IA dans un avenir pas si lointain, un chroniqueur de TechCrunch a mis en avant une étude présentée à une conférence importante de l'industrie en 2017. Les chercheurs y expliquent comment un réseau d'opposition générationnelle (Generative Adversarial Network) - l'une des deux variétés courantes d'opérateur de machine learning - a résisté aux intentions de ses programmeurs et a commencé à produire des cartes synthétiques après avoir reçu l'ordre de faire correspondre des photographies aériennes aux cartes routières correspondantes.

L'objectif de l'étude était de créer un outil permettant d'adapter plus rapidement les images satellites aux cartes routières de Google. Mais au lieu d'apprendre à transformer les images aériennes en cartes, l'opérateur de machine learning a appris à coder les caractéristiques de la carte sur les données visuelles de la carte topographique.

L'objectif était de permettre à l'opérateur d'interpréter les caractéristiques de l'un ou l'autre type de carte et de les faire correspondre aux caractéristiques de l'autre. Mais ce sur quoi l'opérateur était noté (entre autres choses), c'était la proximité de correspondance d'une carte aérienne par rapport à l'original et la clarté de la carte topographique.

Il n'a donc pas appris à faire l'une à partir de l'autre. Il a appris à coder subtilement les caractéristiques de l'une dans les "modèles de bruit" de l'autre. Les détails de la carte aérienne sont secrètement inscrits dans les données visuelles réelles de la carte des rues : des milliers de petits changements de couleur que l'œil humain ne remarquera pas, mais que l'ordinateur peut facilement détecter.

En fait, l'ordinateur est si bon à glisser ces détails dans les plans qu'il a appris à encoder n'importe quelle carte aérienne dans n'importe quel plan de rues ! Il n'a même pas besoin de faire attention à la "vraie" carte routière - toutes les données nécessaires à la reconstitution de la photo aérienne peuvent être superposées sans danger à une carte routière complètement différente, comme l'ont confirmé les chercheurs :

Cette pratique d'encodage des données en images n'est pas nouvelle ; il s'agit d'une science établie appelée stéganographie, et elle est utilisée tout le temps pour, disons, filigraner des images ou ajouter des métadonnées comme les réglages de caméra. Mais un ordinateur qui crée sa propre méthode stéganographique pour éviter d'avoir à apprendre à exécuter la tâche à accomplir c'est plutôt nouveau.

Au lieu de trouver un moyen d'accomplir une tâche qui dépassait ses capacités, l'opérateur de machine learning a développé sa propre méthode pour tricher.

On pourrait facilement prendre cela comme un pas vers l'idée "les machines deviennent plus intelligentes", mais la vérité est que c'est presque le contraire. La machine, qui n'est pas assez intelligente pour faire le travail difficile de convertir ces types d'images sophistiqués les unes avec les autres, a trouvé un moyen de tricher que les humains ont de la peine à détecter. Cela pourrait être évité avec une évaluation plus rigoureuse des résultats de l'opérateur, et il ne fait aucun doute que les chercheurs vont poursuivre dans cette voie.

Et même si ces chercheurs sophistiqués ont failli ne pas le détecter, qu'en est-il de notre capacité à différencier les images authentiques de celles qui fabriquées par simulation informatique ?

Auteur: Internet

Info: Zero Hedges 4 janvier 2018

[ vrai du faux ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

Comment le cerveau participe au cancer

Des neurones voient le jour au sein même du microenvironnement tumoral, contribuant au développement du cancer. Ces cellules nerveuses dérivent de progéniteurs provenant du cerveau et sont acheminés via la circulation sanguine. Cette découverte étonnante ouvre la voie à tout un nouveau champ de recherche, relatif au rôle du système nerveux dans le développement des cancers et aux interactions entre les systèmes vasculaires, immunitaires et nerveux dans la tumorigenèse.

La production de nouveaux neurones est un événement plutôt rare chez l'adulte, cantonné à deux régions particulières du cerveau: le gyrus denté dans l'hippocampe et la zone sous-ventriculaire. Mais voilà que l'équipe Inserm Atip-Avenir dirigée par Claire Magnon* à l'Institut de Radiobiologie Cellulaire et Moléculaire, dirigé par Paul-Henri Roméo (CEA, Fontenay-aux-Roses), vient de montrer que ce phénomène se produit également en dehors du système nerveux central: dans les tumeurs !

En 2013, cette chercheuse avait déjà mis en évidence, dans des tumeurs de la prostate, que l'infiltration de fibres nerveuses, issues de prolongements d'axones de neurones préexistants, était associée à la survenue et à la progression de ce cancer. Depuis, d'autres études ont permis de confirmer le rôle inattendu, mais apparemment important, des fibres nerveuses dans le microenvironnement tumoral de nombreux cancers solides.

Soucieuse de comprendre l'origine du réseau neuronal tumoral, Claire Magnon a une idée surprenante: et si le réseau nerveux impliqué dans le développement des tumeurs provenait de nouveaux neurones se formant sur place ? Et dans ce cas, comment pourrait être initiée cette neurogenèse tumorale ?

Des cellules neurales souches dans les tumeurs
Pour tester cette hypothèse, Claire Magnon a étudié les tumeurs de 52 patients atteints de cancer de la prostate. Elle y a découvert des cellules exprimant une protéine, la doublecortine (DCX), connue pour être exprimée par les cellules progénitrices neuronales, lors du développement embryonnaire et chez l'adulte dans les deux zones du cerveau où les neurones se renouvellent. De plus, dans les tumeurs étudiées, la quantité de cellules DCX+ est parfaitement corrélée à la sévérité du cancer. "Cette découverte étonnante atteste de la présence de progéniteurs neuronaux DCX+ en dehors du cerveau chez l'adulte. Et nos travaux montrent qu'ils participent bien à la formation de nouveaux neurones dans les tumeurs", clarifie-t-elle.

Une migration du cerveau vers la tumeur
Pour déterminer l'origine de ces progéniteurs neuronaux, Claire Magon a utilisé des souris transgéniques, porteuses de tumeurs. Elle a quantifié les cellules DCX+ présentes dans les deux régions du cerveau où elles résident habituellement. Elle a alors constaté que, lors de l'établissement d'une tumeur, leur quantité est réduite dans l'une d'elles: la zone sous-ventriculaire. "Il y avait deux explications: soit les cellules DCX+ mourraient dans cette région sans qu'on en connaisse la cause, soit elles quittaient cette zone, ce qui pouvait expliquer leur apparition au niveau de la tumeur".

Différentes expériences ont montré que cette seconde hypothèse était la bonne avec la mise en évidence du passage des cellules DCX+ de la zone sous-ventriculaire du cerveau dans la circulation sanguine et de l'extrême similarité entre les cellules centrales et celles retrouvées dans la tumeur. "En pratique, nous constatons des anomalies de perméabilité de la barrière hématoencéphalique de la zone sous-ventriculaire chez les souris cancéreuses, favorisant le passage des cellules DCX+ dans le sang. Rien ne permet pour l'instant de savoir si ce problème de perméabilité précède l'apparition du cancer sous l'effet d'autres facteurs, ou si elle est provoquée par le cancer lui-même, via des signaux issus de la tumeur en formation.

Quoi qu'il en soit, les cellules DCX+ migrent dans le sang jusqu'à la tumeur, y compris dans les nodules métastatiques, où elles s'intègrent au microenvironnement. Là, elles se différencient en neuroblastes puis en neurones adrénergiques producteurs d'adrénaline. Or, l'adrénaline régule le système vasculaire et c'est probablement ce mécanisme qui favorise à son tour le développement tumoral. Mais ces hypothèses restent à vérifier".

Une piste thérapeutique
En attendant, cette recherche ouvre la porte à une nouvelle piste thérapeutique: De fait, des observations cliniques montrent que les patients atteints de cancer de la prostate qui utilisent des bêtabloquants (qui bloquent les récepteurs adrénergiques) à des fins cardiovasculaires, présentent de meilleurs taux de survie. "Il serait intéressant de tester ces médicaments en tant qu'anticancéreux" estime la chercheuse. Deux essais cliniques allant dans ce sens ont récemment ouvert aux Etats-Unis. De façon plus générale, "l'étude de ce réseau nerveux dans le microenvironnement tumoral pourrait apporter des réponses sur le pourquoi des résistances à certains traitements et favoriser le développement de nouveaux médicaments", conclut-elle.

Auteur: Internet

Info: www.techno-science.net, 17 mai 2019. *Laboratoire de Cancer et Microenvironnement, Equipe Atip-Avenir, UMR967 Inserm/IBFJ-iRCM-CEA/Université Paris 11/Université Paris Diderot, Fontenay-aux-Roses

 

Commentaires: 0

Ajouté à la BD par miguel

biogénétique

Une partie de l' " ADN indésirable " sert un objectif 

Si on étire tout l’ADN d’une seule cellule humaine, il mesurerait plus de 5 mètres de long. Mais seul un fragment de cet ADN produit des protéines, la machinerie biologique nécessaire à la vie. En 2003, le Human Genome Project a montré que seulement 1 à 2 % de notre ADN – environ 4 cm sur ces 5 mètres – code des gènes pour les protéines. Les séquences non codantes qui constituent les 98 % restants sont souvent appelées " ADN indésirable (junk dna) ", un terme inventé en 1972 par le généticien Susumu Ohno, qui a suggéré que, tout comme les archives fossiles regorgent d'espèces disparues, nos génomes sont remplis d'espèces disparues. gènes éteints ou mal copiés endommagés par des mutations.

Mais même si 98 % du génome est non codant, il ne s’agit pas précisément d’un poids mort. En 2012, un consortium de centaines de scientifiques a rapporté dans l'Encyclopédie des éléments de l'ADN qu'au moins 80 % du génome est " actif " au sens où une partie de l'ADN est traduite en ARN*, même si cet ARN est pas ensuite traduit en protéines. Il existe peu de preuves que la plupart de cet ARN provenant de gènes brisés ait un effet.

Cependant, certaines séquences non codantes, qui représentent environ 8 à 15 % de notre ADN, ne sont pas du tout indésirables. Elles remplissent des fonctions importantes, en régulant les gènes actifs des cellules et la quantité de protéines qu’ils produisent. Les chercheurs découvrent encore de nouvelles façons dont l'ADN non codant fait cela, mais il est clair que la biologie humaine est massivement influencée par les régions non codantes, qui ne codent pas directement pour les protéines mais façonnent quand même leur production. Les mutations dans ces régions, par exemple, ont été associées à des maladies ou à des troubles aussi variés que l'autisme, les tremblements et le dysfonctionnement hépatique.

De plus, en comparant les génomes humains à ceux des chimpanzés et d’autres animaux, les scientifiques ont appris que les régions non codantes peuvent jouer un rôle important dans ce qui nous rend uniques : il est possible que la régulation des gènes par l’ADN non codant différencie plus les espèces que les gènes et les protéines elles-mêmes.

Les chercheurs découvrent également que de nouvelles mutations peuvent parfois conférer de nouvelles capacités à des séquences non codantes, ce qui en fait une sorte de ressource pour une évolution future. En conséquence, ce qui mérite l’étiquette " ADN indésirable " reste à discuter. Les scientifiques ont clairement commencé à nettoyer ce tiroir à déchets depuis 1972 – mais ce qui reste dedans est encore à débattre.

Quoi de neuf et remarquable

Les scientifiques ont travaillé pour comprendre un type d’ADN non codant appelé " transposons** " ou " gènes sauteurs ". Ces bribes peuvent parcourir le génome, créant des copies d’elle-mêmes, qui sont parfois insérées dans des séquences d’ADN. Les transposons se révèlent de plus en plus essentiels au réglage de l'expression des gènes ou à la détermination des gènes codants activés pour être transcrits en protéines. C'est en partie pour cette raison qu'ils s'avèrent importants pour le développement et la survie d'un organisme . Lorsque les chercheurs ont conçu des souris dépourvues de transposons, la moitié des petits des animaux sont morts avant la naissance. Les transposons ont laissé des traces sur l'évolution de la vie. Quanta a rapporté qu'ils peuvent passer d'une espèce à l'autre - comme du hareng à l'éperlan et des serpents aux grenouilles - offrant parfois même certains avantages, comme protéger les poissons du gel dans les eaux glacées.

Les généticiens étudient également les " courts tandem  répétés ", dans lesquels une séquence d’ADN longue d’une à six paires de bases seulement est fortement répétée, parfois des dizaines de fois de suite. Les scientifiques soupçonnaient qu'elles aidaient à réguler les gènes, car ces séquences, qui représentent environ 5 % du génome humain, ont été associées à des maladies telles que la maladie de Huntington et le cancer. Dans une étude couverte par Quanta en février, les chercheurs ont découvert une manière possible par laquelle de courtes répétitions en tandem pourraient réguler les gènes : en aidant à réunir des facteurs de transcription, qui aident ensuite à activer la machinerie de production de protéines.

Ensuite, il y a les " pseudogènes*** ", restes de gènes fonctionnels qui ont été dupliqués puis dégradés par des mutations ultérieures. Cependant, comme Quanta l’a rapporté en 2021, les scientifiques ont découvert que parfois les pseudogènes ne demeurent pas pseudo ou indésirables ; au lieu de cela, ils développent de nouvelles fonctions et deviennent des régulateurs génétiques – régulant même parfois le gène même à partir duquel ils ont été copiés.

Auteur: Internet

Info: Yasemin Sapakoglu. *Aussi sur base 4, l'ARN ou acide nucléique, sert d'intermédiaire dans la circulation de l'information génétique de l'ADN aux protéines. **les transposons sont à la fois régulés par l'épigénétique, mais peuvent aussi induire des changements épigénétiques héritables, faisant le lien entre génome et épigénome dans l'évolution, 333vestiges moléculaires de gènes ancestraux devenus non fonctionnels, mais qui semblent parfois avoir acquis des rôles régulateurs inattendus au cours de l'évolution

[ stratégies géniques ] [ codifications du vivant ] [ mémoire diachronique active ] [ encodages chronologiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Ce que l'Homme et le gorille ont en commun
Des chercheurs du Wellcome Trust Sanger Institute (Royaume-Uni), avec la participation de l'équipe d'Emmanouil Dermitzakis, professeur Louis-Jeantet à la Faculté de médecine de l'UNIGE, ont réussi à séquencer le génome du gorille, le seul hominidé dont le génome n'avait pas encore été décodé. Cette étude a révélé qu'une partie du génome humain ressemble davantage à celui du gorille qu'à celui du chimpanzé. Les résultats de cette recherche offrent des perspectives inédites sur l'origine de l'Homme.
L'être humain, le chimpanzé et le gorille présentent de nombreuses similitudes anatomiques et physiologiques. Des études moléculaires ont confirmé que l'Homme est plus proche des grands singes d'Afrique, en particulier du chimpanzé, que des ourang-outans. Des analyses complémentaires ont ensuite exploré les différences fonctionnelles entre les espèces de grands singes et déterminé leur influence sur l'évolution de l'être humain à travers le séquenc¸age de l'ADN du chimpanzé et de l'orang-outan, mais pas celui du gorille.
L'équipe de chercheurs menée par le Wellcome Trust Sanger Institute propose la première analyse génomique du gorille jamais réalisée qui constitue une base d'étude de l'évolution des hominidés. C'est la première fois que des scientifiques réussissent à comparer les génomes des quatre espèces d'hominidés: les humains, les chimpanzés, les gorilles et les orangs-outangs.
"Le séquençage du génome du gorille est important puisqu'il permet de lever le voile sur la période de l'évolution durant laquelle nos ancêtres ont commencé à s'éloigner de nos cousins les plus proches. Nous pouvons ainsi examiner les similitudes et les dissemblances entre nos gènes et ceux du gorille, le plus grand des primates anthropoi¨des, explique Aylwyn Scally du Wellcome Trust Sanger Institute. Nous avons assemblé l'ADN de Kamilah, un gorille femelle des plaines de l'ouest, et nous l'avons comparé aux génomes d'autres grands singes. Nous avons également prélevé l'ADN d'autres gorilles afin d'analyser les différences génétiques entre les espèces de gorille."
Cette étude met en lumière la période à laquelle trois espèces étroitement liées, le gorille, le chimpanzé et l'Homme, ont commencé à se différencier. Contrairement à ce que l'on pourrait penser, les espèces ne divergent pas toujours brutalement à un moment donné, elles se séparent parfois progressivement sur une longue période.
L'équipe a découvert que la divergence génétique entre les gorilles et les humains et chimpanzés date d'il y a environ 10 millions d'années. La dissemblance génomique entre les gorilles des plaines de l'est et de l'ouest est, quant à elle, beaucoup plus récente et remonte à 1 million d'années. Leur génome se sont graduellement éloignés jusqu'à être complètement distincts. Cette divergence est comparable, à certains égards, à celle qui existe entre les chimpanzés et les bonobos, et entre l'Homme moderne et l'homme de Néanderthal. L'équipe a analysé plus de 11 000 gènes chez l'humain, le chimpanzé et le gorille afin de déterminer les changements génétiques apparus au cours de l'évolution.
Bien que l'Homme et le chimpanzé soient génétiquement proches, les chercheurs ont découvert que cette ressemblance ne s'appliquait pas à la totalité du génome. En réalité, 15% du génome humain se rapproche davantage de celui du gorille que de celui du chimpanzé. Les chercheurs ont découvert que, chez ces trois espèces, les gènes liés à la perception sensorielle, à l'oui¨e et au développement cérébral, ont montré des signes d'évolution accélérée, particulièrement chez l'humain et le gorille. Les résultats de cette recherche ont révélé non seulement des dissemblances entre les espèces, mettant en lumière des millions d'années de divergence évolutionniste, mais également des similarités.
Les gorilles et les humains partagent en effet de nombreuses modifications génétiques, impliquées notamment dans l'évolution de l'audition. Il y a quelques années, des scientifiques avaient suggéré que l'évolution rapide des gènes humains liés à l'audition était en corrélation avec celle du langage. Cette déclaration est aujourd'hui remise en question puisque cette étude démontre que les gènes de l'audition ont évolué au même rythme chez l'être humain et chez le gorille.
Grâce à cette recherche, les scientifiques ont fait le tour de toutes les comparaisons entre les espèces d'hominidés. Après des décennies de débats, leurs interprétations génétiques sont désormais cohérentes avec le registre fossile. Les paléontologues et les généticiens peuvent dorénavant travailler sur les mêmes bases.
"Cette étude offre des perspectives inédites sur l'évolution de nos ancêtres et de nos origines. Les conclusions de ce travail de recherche sont pertinentes d'un point de vue historique, mais ce n'est pas tout. Elles sont d'une importance fondamentale pour la compréhension de notre génome, de la variabilité génétique et des conséquences médicales des mutations", commente Emmanouil Dermitzakis. Avec son équipe genevoise, ce a participé à l'analyse des activités génétiques à partir de cellules prélevées chez le gorille, l'Homme, le chimpanzé et le bonobo. Ses résultats démontrent que d'un point de vue général l'expression des gènes correspond aux différences génétiques entre les espèces.

Auteur: Internet

Info: http://www.unige.ch/communication/archives/2012/gorilles.html

[ quadrumane ] [ métamorphose ]

 

Commentaires: 0

querelle du filioque

La source la plus claire de la notion de pardon que le christianisme développera pendant des siècles remonte, dans les Évangiles, à saint Paul et à saint Luc. Comme tous les principes de base de la chrétienté, elle sera développée chez saint Augustin, mais c’est chez saint Jean Damascène (au VIIIe siècle) qu’on trouvera une hypostase de la "bienveillance du père" (eudoxia), de la "tendre miséricorde" (eusplankhna) et de la "condescendance" (le Fils s’abaisse jusqu’à nous)(synkatabasis). A rebours, ces notions peuvent être interprétées comme préparant la singularité du christianisme orthodoxe jusqu’au schisme de Per Filium/Filioque.

Un théologien semble avoir profondément déterminé la foi orthodoxe qui s’exprime puissamment chez Dostoïevski et donne à l’expérience intérieure propre à ses romans cette intensité émotionnelle, ce pathos mystique si surprenants pour l’Occident. Il s’agit de saint Syméon le Nouveau Théologien (999-1022). [...] Saint Syméon comprend la Trinité comme une fusion des différences que sont les trois personnes, et l’énonce intensément à travers la métaphore de la lumière.

Lumière et hypostases, unité et apparition : telle est la logique de la Trinité byzantine. Elle trouve immédiatement, chez Syméon, son équivalent anthropologique : "Comme il est impossible qu’il existe un homme avec parole ou esprit sans âme, ainsi il est impossible de penser le Fils avec le Père sans le Saint-Esprit [...]. Car ton propre esprit, de même que ton âme, est dans ton intelligence, et toute ton intelligence est dans tout ton verbe, et tout ton verbe est dans tout ton esprit, sans séparation et sans confusion. C’est l’image de Dieu en nous." Dans cette voie, le croyant se défie en fusionnant avec le Fils et avec l’Esprit : "Je te rends grâce que sans confusion, sans changement, tu te sois fait un seul Esprit avec moi, bien que tu sois Dieu par-dessus tout, tu sois devenu pour moi tout en tout."

Nous touchons ici l’ "originalité de l’orthodoxie". Elle aboutira, à travers maintes controverses institutionnelles et politiques, au schisme accompli au XIe siècle et achevé avec la prise de Constantinople par les Latins en 1204. Sur le plan proprement théologique, c’est Syméon plus que Photius qui formule la doctrine orientale Per Filium opposée au Filioque des Latins. Insistant sur l’Esprit, il affirme l’identité de la vie dans l’Esprit et de la vie dans le Christ, cette pneutamologie puissante trouvant dans le Père son origine. Toutefois, une telle instance paternelle n’est pas simplement un principe d’autorité ou une cause mécanique simple : dans le Père, l’Esprit perd son immanence et s’identifie au royaume de Dieu défini à travers des métamorphoses germinales, florales, nutritives et érotiques qui connotent, par-delà l’énergétisme cosmique souvent considéré spécifique à l’Orient, la fusion ouvertement sexuelle avec la Chose aux limites du nommable.

Dans cette dynamique, l’Église elle-même apparaît comme un soma pneumatikon, un "mystère", plus qu’une institution à l’image des monarchies.

Cette identification extatique des trois hypostases entre elles et du croyant avec la Trinité ne conduit pas à la conception d’une autonomie du Fils (ou du croyant), mais à une appartenance pneumatologique de chacun aux autres, que traduit l’expression Per Filium (l’Esprit descend du Père par le Fils) opposée au Filioque (l’Esprit descend du Père et du Fils).

Il a été impossible, à l’époque, de trouver la rationalisation de ce mouvement mystique interne à la Trinité et à la foi, où, sans perdre sa valeur de personne, l’Esprit fusionne avec les deux autres pôles et, du même coup, leur confère, au-delà de leur valeur d’identité ou d’autorité distinctes, une profondeur abyssale, vertigineuse, certainement aussi sexuelle, dans laquelle se logera l’expérience psychologique de la perte et de l’extase. Le nœud borroméen que Lacan a utilisé comme métaphore de l’unité et de la différence entre le Réel, l’Imaginaire et le Symbolique permet peut-être de penser cette logique, si tant est qu’il soit nécessaire de la rationaliser. Or, précisément, tel ne semblait pas être le propos des théologiens byzantins du XI au XIIIe siècles, préoccupés de décrire une nouvelle subjectivité post-antique plutôt que de la soumettre à la raison existante. En revanche, les Pères de l’Église latine, plus logiciens, et qui venaient de découvrir Aristote (alors que l’Orient en était nourri et ne cherchait plus qu’à s’en différencier), ont logifié la Trinité en voyant en Dieu une essence intellectuelle simple articulable en dyades : le Père engendre le Fils ; le Père et le Fils en tant qu’ensemble font procéder l’Esprit. Développée par la syllogistique d’Anselme de Cantorbury au concile de Bari en 1098, cette argumentation du Filioque sera reprise et développée par Thomas d’Aquin. Elle aura l’avantage d’asseoir d’une part l’autorité politique et spirituelle de la papauté, d’autre part l’autonomie et la rationalité de la personne du croyant identifié à un Fils ayant pouvoir et prestige à égalité avec le Père. Ce qui est ainsi gagné en égalité et donc en performance et en historicité, est peut-être perdu au niveau de l’expérience de l’identification, au sens d’une instabilité permanente de l’identité.

Auteur: Kristeva Julia

Info: Dans "Soleil noir", éditions Gallimard, 1987, pages 218 à 222

[ influence ] [ psychanalyse ]

 
Commentaires: 3
Ajouté à la BD par Coli Masson

homme-animal

Des chercheurs japonais ont eu la brillante idée de confronter des pigeons à des photographies de tableaux de grands maîtres, comme Monet et Picasso. Et les oiseaux sont parvenus à différencier les toiles cubistes des impressionnistes.

On prend souvent les oiseaux pour des animaux plutôt stupides. Pourtant, comme le montre cette étude, les pigeons peuvent différencier un tableau de Monet de celui de Picasso. Ce n'est malgré tout qu'une piètre prestation à côté des corvidés (corbeaux, pies, geais...) capables de résoudre des tâches très complexes. Des corneilles se servent d'outils tandis que les pies se reconnaissent dans le miroir. 

Pourquoi obliger des pigeons à contempler une toile de maître ? L'idée des scientifiques de l'université Keio, au Japon, paraît complètement délirante. Pour preuve, cette recherche leur a valu un prix : le fameux IgNobel de psychologie en 1995.  

Monet et Picasso figurent parmi les peintres les plus célèbres. Le premier est devenu le fer de lance de l'impressionnisme, dont l'un des tableaux le plus célèbre, Impression soleil levant, a donné le nom au mouvement pictural. Celui-ci se caractérise par des scènes quotidiennes mises en image d'une manière personnelle, sans rétablir la stricte vérité du paysage mais en mettant en lumière la beauté et la surprise de la nature.

Il tranche nettement avec le cubisme, apparu quelques décennies plus tard, sous le pinceau de deux génies, Georges Braque et Pablo Picasso. Ce courant en termine avec le réalisme et y préfère la représentation de la nature par des formes étranges et inconnues.

Une simple éducation picturale permet à n'importe quel être humain de différencier les deux mouvements. Mais qu'en est-il des pigeons ? 

Ce n'est pas tout à fait avec cette idée que des chercheurs de l'université de Keiro, au Japon, se sont lancés dans une expérience troublante, à savoir si ces oiseaux à la mauvaise réputation pouvaient différencier un Monet d'un Picasso. Ils souhaitaient simplement étudier la discrimination visuelle chez ces volatiles et tester leur perception du monde. Les résultats sont livrés dans Journal of the Experimental Analysis of Behaviour daté de mars 1995.

L’étude : les pigeons sont-ils impressionnistes ou cubistes ?

Pour le bon déroulement de l'expérience, les scientifiques disposaient de pigeons dits "naïfs", c'est-à-dire que leurs sujets n'avaient jamais suivi des études d'art appliqué. Il fallait donc les trouver. Malgré la difficulté de la tâche, huit cobayes ont participé aux tests.

Les oiseaux étaient classés en deux groupes. Dans l'un d'eux, les quatre volatiles recevaient des graines de chanvre (la plante à partir de laquelle on tire le cannabis) dès qu'une peinture de Monet apparaissait, mais rien face à une œuvre de Pablo Picasso. Bien évidemment, le même renforcement positif existait pour les quatre autres pigeons, cette fois quand on les confrontait à une toile du maître cubiste. Les scientifiques ont eu la gentillesse d'éviter les pièges et de choisir des peintures caractéristiques de chaque courant pictural.

La deuxième partie est intéressante car elle vise à généraliser le concept. Ainsi on confrontait nos nouveaux critiques d'art à des tableaux de leur maître préféré qu'ils n'avaient encore jamais vus. Les volatiles ne se sont pas laissé impressionner et ont de suite compris le stratagème. En appuyant du bec sur une touche située devant eux, ils pouvaient manifester leur choix et être récompensés le cas échéant.

Quasiment aucune erreur dès le premier essai. De même pour les suivants. Mieux, les adeptes du cubisme réclamaient à manger quand ils voyaient un tableau de Georges Braque tandis que les autres appuyaient frénétiquement sur le bouton à la vue d'un tableau de Cézanne ou Renoir, deux autres impressionnistes. 

Enfin, l'épreuve ultime. Qu'est-ce que ça donne si on met Monet et Picasso la tête à l'envers ? Cette fois, il faut reconnaître que les résultats sont plus mitigés. Si l'expérience n'a pas affecté les performances des pigeons cubistes, il n'en a pas été de même pour l'autre groupe, incapable d'y voir les œuvres pour lesquelles ils avaient tant vibré.

Les auteurs de ce travail suggèrent alors que leurs cobayes à plumes impressionnistes reconnaissaient dans les toiles des objets réels et devenaient incompétents quand leur univers était représenté à l'envers. De l'autre côté, les fans de Pablo Picasso s'habituaient à discriminer des formes inédites, qui le restaient même retournées. La preuve que les pigeons maîtrisent eux aussi l'art de la catégorisation. 

L’œil extérieur : de l'intérêt de l’art chez les pigeons

Certes, cette découverte ne révolutionnera pas le monde mais en dit davantage sur les performances cognitives des pigeons. Après tout, il n'y a pas que notre intelligence qui compte ! Voyons-le comme une manière de sortir de l'anthropocentrisme, même si le parallèle avec l'être humain se fait toujours.

Cette recherche s'inscrit surtout dans un contexte où les oiseaux étaient testés dans leur sensibilité à l'art. Car si ce travail focalise son attention sur les génies de la peinture, d'autres scientifiques avaient affirmé en 1984 que ces mêmes animaux pouvaient différencier du Bach et du Stravinsky (évidemment, on parle de musique). D'autres études (tout aussi passionnantes...) montrent la façon dont les scientifiques ont habitué les pigeons à l'image de Charlie Brown, un personnage de bande dessiné inventé en 1950.

Est-ce vraiment mieux ? La seule différence est qu'à cette époque, les prix IgNobel n'existaient pas encore...

Auteur: Internet

Info: https://www.futura-sciences.com/, Janlou Chaput, juin 2012

[ vision ] [ identification de modèles ] [ cognition ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste