Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2284
Temps de recherche: 0.0519s

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

biophysique

La photosynthèse des plantes utilise un tour de passe-passe quantique

Des chercheurs ont observé des similitudes étonnantes entre la photosynthèse des plantes vertes et le fameux "cinquième état de la matière" en mettant le doigt sur un curieux phénomène; ils ont trouvé des liens entre le processus de photosynthèse, qui permet aux végétaux d’exploiter la lumière du soleil, et les condensats de Bose-Einstein, des matériaux dans un état très particulier qui fait intervenir la physique quantique.

"Pour autant que je sache, ces deux disciplines n’ont jamais été connectées auparavant, donc ce résultat nous a semblé très intrigant et excitant", explique David Mazziotti, co-auteur de l’étude.

Son laboratoire est spécialisé dans la modélisation des interactions complexes de la matière. Ces derniers temps, son équipe s’est intéressée aux mécanismes de la photosynthèse à l’échelle des atomes et des molécules. Plus précisément, les chercheurs se sont penchés sur le siège de cette réaction : les chloroplastes, les petites structures chlorophylliennes qui donnent leur couleur aux plantes vertes.

Lorsqu’un photon vient frapper une structure bien précise à la surface de ces chloroplastes (le photosystème II, ou PSII), cela a pour effet d’arracher un électron — une particule élémentaire chargée négativement. Ce dernier devient alors l’acteur principal d’une réaction en chaîne complexe. Le mécanisme est déjà relativement bien connu. Il a été étudié en profondeur par des tas de spécialistes, et c’est aujourd’hui l’une des pierres angulaires de la biologie végétale.

Mais le départ de cet électron laisse aussi ce que les physiciens appellent un trou. Il ne s’agit pas d’une particule à proprement parler. Mais cette structure chargée positivement est aussi capable se déplacer au sein d’un système. Elle peut donc se comporter comme un vecteur d’énergie.

Ensemble, l’électron éjecté et le trou qu’il laisse derrière lui forment un couple dynamique appelé exciton. Et si le rôle du premier est bien documenté, le comportement du second dans le cadre de la photosynthèse n’a quasiment pas été étudié.

C’est quoi, un condensat de Bose-Einstein ?

Pour combler cette lacune, Mazziotti et ses collègues ont réalisé des modélisations informatiques du phénomène. Et en observant les allées et venues de ces excitons, ces spécialistes des interactions de la matière ont rapidement remarqué quelques motifs qui leur ont semblé familiers ; ils rappelaient fortement un concept proposé par Einstein en 1925.

Imaginez un gaz où des particules se déplacent aléatoirement les uns par rapport aux autres, animées par leur énergie interne. En le refroidissant (ce qui revient à retirer de l’énergie au système), on force les atomes à s’agglutiner ; le gaz passe à l’état liquide, puis solide dans certains cas.

Lorsqu’on le refroidit encore davantage pour s’approcher du zéro absolu, les atomes arrivent dans un état où ils n’ont quasiment plus d’énergie à disposition ; ils sont presque entièrement figés dans un état ultra-condensé, séparés par une distance si minuscule que la physique newtonienne traditionnelle ne suffit plus à l’expliquer.

Sans rentrer dans le détail, dans ces conditions, les atomes (ou plus précisément les bosons) qui composent certains matériaux deviennent quasiment indiscernables. Au niveau quantique, ils forment un système unique, une sorte de super-particule où chaque constituant est exactement dans le même état (voir la notion de dualité onde-corpuscule pour plus de détails). On appelle cela un condensat de Bose-Einstein.

Ces objets ne suivent pas les règles de la physique traditionnelle. Ils affichent des propriétés très particulières qui n’existent pas dans les gaz, les liquides, les solides ou le plasma. Pour cette raison, ces condensats sont parfois considérés comme les représentants du "cinquième état de la matière". (après le solide, le liquide, le gaz et le plasma)

De la biologie végétale à la physique quantique

La plus remarquable de ces propriétés, c’est que les condensats de Bose-Einstein sont de vraies autoroutes à particules. D’après la physicienne américaine Louise Lerner, l’énergie s’y déplace librement, sans la moindre résistance. Même si les mécanismes physiques sous-jacents sont différents, on se retrouve dans une situation comparable à ce que l’on trouve dans les supraconducteurs.

Or, d’après les modèles informatiques créés par Mazziotti et ses collègues, les excitons générés par la photosynthèse peuvent parfois se lier comme dans les condensats de Bose-Einstein. C’est une observation particulièrement surprenante, car jusqu’à présent, cela n’a été documenté qu’à des températures proches du zéro absolu. Selon Louise Lerner, c’est aussi étonnant que de voir "des glaçons se former spontanément dans une tasse de café chaud".

Le phénomène n’est pas aussi marqué chez les plantes que dans les vrais condensats de Bose-Einstein. Mais d’après les auteurs de l’étude, cela aurait quand même pour effet de doubler l’efficacité des transferts énergétiques indispensables à la photosynthèse.

De la recherche fondamentale aux applications pratiques

Les implications de cette découverte ne sont pas encore parfaitement claires. Mais il y en a une qui met déjà l’eau à la bouche des chercheurs : ces travaux pourraient enfin permettre d’utiliser les formidables propriétés des condensats de Bose-Einstein dans des applications concrètes.

En effet, même si ces matériaux sont très intéressants sur le papier, le fait de devoir atteindre une température proche du zéro absolu limite grandement leur intérêt pratique. Aujourd’hui, ils sont utilisés exclusivement en recherche fondamentale. Mais puisqu’un phénomène comparable a désormais été modélisé à température ambiante, les chercheurs vont pouvoir essayer d’utiliser ces mécanismes pour concevoir de nouveaux matériaux aux propriétés très intéressantes.

"Un condensat d’excitons parfait est très sensible et nécessite des conditions très spécifiques", précise Mazziotti. "Mais pour les applications réalistes, c’est très excitant de voir que ce phénomène qui augmente l’efficacité du système peut survenir à température ambiante", se réjouit-il.

A long terme, cette découverte va sans doute contribuer à la recherche fondamentale, en biologie végétale mais aussi en physique quantique pure. Cela pourrait aussi faire émerger une nouvelle génération de composants électroniques très performants. Il sera donc très intéressant de suivre les retombées de ces travaux encore balbutiants, mais exceptionnellement prometteurs.

Auteur: Internet

Info: https://www.journaldugeek.com/, Antoine Gautherie le 05 mai 2023

[ recherche fondamentale ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

capitalisme

Prenez garde aux psychopathes corporates - ils sont encore aux postes de pouvoir
Au cours des années, j'ai rencontré mon lot de monstres - des fripouilles pour la plupart. Mais à mesure que la réglementation au Royaume-Uni et aux États-Unis a assoupli ses contraintes, ces monstres ont proliféré.
Dans un article publié récemment dans le Journal of Business Ethics intitulé "The Corporate Psychopaths: Theory of the Global Financial Crisis", Clive R Boddy identifie ces individus à des psychopathes.
"Ils sont" dit-il "tout simplement le 1 pour cent des gens qui n'ont aucune conscience ni empathie". Et il affirme : "Des psychopathes qui sont aux postes clefs des sociétés financières modernes de premier plan, où ils peuvent influencer le climat moral de toute l'organisation et générer un pouvoir considérable, ont largement provoqué la crise [bancaire]".
Et M. Boddy n'est pas seul. Dans le livre largement acclamé de Jon Ronson The Psychopath Test, le professeur Robert Hare a déclaré à l'auteur: "J'aurais aussi dû passer un peu de temps à la bourse. Les psychopathes tueurs en série ruinent les familles. Les psychopathes corporatistes, politiques et religieux ruinent les économies. Ils ruinent les sociétés."
Flash back vers une soirée agréable et chaude à Bahreïn. Mon compagnon, un banquier d'investissement britannique et moi-même, parlons des gens de la banque que nous connaissons qui ont eu le plus de succès et ce qui les fait avancer. J'avance qu'ils sont souvent ressemblants aux caractéristiques des psychopathes sociaux. À ma grande surprise, mon ami est d'accord.
Il fait alors une confession étonnante: "Dans une grande banque d'investissement pour laquelle j'ai travaillé, nous avons utilisé des tests psychométriques pour recruter des psychopathes sociaux parce que leurs caractéristiques correspondaient exactement à ce qu'on attend des cadres supérieurs en finance d'entreprisee".
Où une des plus grandes banques d'investissement du monde recrute des psychopathes.
M. Ronson a parlé à des dizaines de psychologues quand à leur compréhension des dégâts que les psychopathes pourraient faire à la société. Aucun de ces psychologues n'aurait pu imaginer, je suis sûr, qu'une une banque utilisait cette science pour les repérer dans son mécanisme de recrutement.
Je n'ai jamais rencontré Dick Fuld, ancien PDG de Lehman Brothers et architecte de sa chute, mais je l'ai vu en vidéo et c'est terrifiant. On le voit intimer au personnel de Lehman "de leur arracher le coeur [aux concurrents] pour le manger, avant même leur mort". Comment quelqu'un comme M. Fuld a-t-il atteint le sommet de Lehman? Vous n'avez pas besoin de voir la vidéo pour conclure qu'il était bizarre. Vous pouvez prendre un peu plus de temps et lire un rapport de 2,200 pages d'Anton Valukas, avocat basé à Chicago, engagé par un tribunal américain pour enquêter sur l'échec de Lehman. M. Valukas a révélé une chicane systémique au sein de la banque; Il a décrit les échecs de la gestion et une culture interne destructive et dangereuse de prise de risques imprudents digne de tout psychopathe.
Alors pourquoi M. Fuld n'a-t-il pas été repéré et arrêté? J'en ai conclu que c'est la bonne vieille question de la nature et de la culture, mais avec une nouvelle interprétation. Voilà comme je vois la chose ; dans sa recherche d'une croissance sans fin, le secteur des services financiers a activement cherché des monstres avec des profils comme M. Fuld en les nourrissant de bonus et de louanges.
Nous comprenons tous que, parfois, les entreprises doivent être réduites en taille afin d'assurer leur survie. Et savoir quand ces réductions doivent arriver est aussi pertinente pour une société que pour l'économie britannique telle qu'elle est aujourd'hui. Doit-on porter atteinte aux riches ou aux pauvres?
Faire de telles réductions ne fait pas de vous un psychopathes au cutter, mais le manque de remords du secteur financier quand à la douleur infligée aux gens est purement psychopathique. Il est certain que l'action d'une diminution ou d'une coupe devrait être matière à chagrin et regret? La vie des gens étant endommagée, voire détruite. Mais ce n'est pas ainsi que le secteur financier voit la chose.
Prenez Sir Fred Goodwin de RBS par exemple. Avant d'accumuler une perte d'entreprise de 24,1 milliards de livres sterling, la plus élevée de l'histoire du Royaume-Uni, il était idolâtré par la City. En reconnaissance de son travail d'impitoyables réductions des coûts à Clydesdale Bank, on lui donna le surnom de "Fred the Shred". Et il fait ça partout, pour être ensuite décrit comme "un Attila d'entreprise", titre dont tout psychopathe serait fier.
M. Ronson rapporte: "Les départements de justice et les commissions de libération conditionnelle du monde entier ont accepté l'affirmation de Hare selon laquelle les psychopathes sont tout simplement incurables, dès lors chacun devrait plutôt concentrer ses énergies pour apprendre à les éliminer".
Mais, bien loin d'être déracinés, ils sont encore en place et souvent à des positions encore plus élevées.
Comme le dit M. Boddy: "Les mêmes psychopathes d'entreprise qui ont probablement provoqué la crise par leur avidité et leur avarice auto-centrée, conseillent maintenant les gouvernements sur la façon de sortir de la crise. En outre, si cette théorie des psychopathes corporatistes dans la crise de la finance mondiale est correcte, nous sommes maintenant loin d'en voir la fin. Ce n'est plutôt que "la fin du début".
Je me suis familiarisé avec les psychopathes dès le début de ma vie. C'étaient les hommes durs qui terrorisaient le sud-est de Londres où j'ai grandi. Des gens comme "Mad" Frankie Fraser et les frères Richardson. Ils étaient ce que nous appelions les hommes de "red haze", et ils étaient effrayants parce qu'ils attaquaient sans crainte, ni pitié, ni remords.
En ce qui concerne messieurs Hare, Ronson, Boddy et d'autres, j'ai réalisé que certains psychopathes "forgent des carrières dans les entreprises. Le groupe s'appelle Psychopathes d'entreprise". Ils sont polis et convaincants, mais cela ne les rend pas moins dangereux.
En essayant de comprendre les complexités de ce qui a mal tourné lors des années qui ont précédé 2008, j'ai développé une règle: "Dans un monde non réglementé, les personnes avec le moins de principes se retrouvent au sommet. Et il n'y a personne qui ait moins de principes que les psychopathes corporates.

Auteur: Basham Brian

Info: jeudi 29 décembre 2011, The Independent Online

[ conservation ] [ profits ]

 

Commentaires: 0

psychanalyse

Ce serait une erreur de croire que l'inconscient est quelque chose d'inoffensif, à propos de quoi on pourrait, par exemple, organiser des petits jeux de société, ou qu'on pourrait à la légère utiliser à des essais thérapeutiques. Assurément, l'inconscient n'est pas dangereux en toutes circonstances ni chez tout le monde. Mais, dès qu'il existe une névrose, celle-ci est un signal d'alarme qui indique qu'il s'est produit dans l'inconscient une accumulation toute particulière d'énergie, formant une sorte de charge susceptible d'exploser. C'est pourquoi, dès lors, des précautions s'imposent. On ignore totalement ce qu'on est susceptible de déclencher quand on commence à analyser les rêves d'un sujet. Il se peut qu'on mette ainsi en mouvement quelque chose d'intérieur, d'invisible; très probablement il s'agit de quelque chose qui, de toute façon se serait tôt ou tard frayé une issue au-dehors... mais il est possible aussi que cela ne se serait jamais produit. On creuse, en quelque sorte, dans l'espoir de trouver un puits artésien, et l'on risque de tomber sur un volcan. Dès que des symptômes névrotiques existent, la plus grande réserve est de mise, et l'on ne doit avancer qu'avec prudence. Mais les cas névrotiques ne sont pas à beaucoup près les plus dangereux. On peut rencontrer des sujets dont l'apparence est des plus normales, qui ne présentent aucun symptôme névrotique particulier eux-mêmes parfois médecins ou éducateurs qui font même étalage de leur "normalité" qui sont des modèles de bonne éducation, qui ont dans la vie des opinions et des habitudes des plus normales, et dont la normalité n'en est pas moins une compensation artificielle pour une psychose latente et cachée. Les intéressés eux-mêmes ne soupçonnent en rien leur état. L'intuition vague qu'ils en ont ne s'exprime peut-être indirectement que par l'attrait particulier que leur inspirent la psychologie et la psychiatrie, domaines qui les captivent comme la lumière attire les papillons. Or, du fait que la technique de l'analyse active l'inconscient et l'aide à s'exprimer, elle détruit, en pareil cas, la compensation salutaire qui s'était installée, et l'inconscient fait irruption sous forme d'imaginations irrépressibles, d'onirisme, donnant lieu à des états d'excitation qui, dans certaines circonstances, aboutissent à une aliénation mentale durable, à moins qu'elle n'ait poussé auparavant au suicide. Ces psychoses latentes, hélas! ne sont pas tellement rares. Quiconque s'occupe d'analyse de l'inconscient est exposé au danger de tomber sur des cas de cette nature, même s'il dispose d'une grande expérience et de beaucoup d'habileté. Abstraction faite de ces cas, il est d'ailleurs possible que le praticien, par maladresse, par des erreurs de conception, par des interprétations arbitraires, fasse échouer des cas qui ne comportaient pas nécessairement un dénouement fâcheux. Cela n'est pas, il est vrai, l'apanage exclusif de l'analyse de l'inconscient, mais marque de son sceau toute intervention médicale si elle est manquée. L'affirmation gratuite que l'analyse rend les gens fous est naturellement aussi stupide que l'idée du vulgaire qui prétend que le médecin aliéniste, à force de s'occuper de fous, doive le devenir à son tour. En dehors des risques inhérents au traitement, l'inconscient peut devenir dangereux par lui-même. Une des formes les plus fréquentes que revêtent les dangers qu'il fait encourir, c'est la détermination d'accidents. Un nombre d'accidents de toute nature, beaucoup plus considérable que le public ne le pense, répond à un conditionnement psychique; qu'il s'agisse de petits incidents comme de trébucher, de se cogner, de brûler les doigts, ou de grandes catastrophes, accidents d'automobiles ou chutes en montagne, tous ces accidents, petits ou grands, peuvent être motivés et causés psychologiquement et se trouvent parfois préparés depuis des semaines ou même des mois. J'ai examiné beaucoup de cas de ce genre et, bien souvent, j'ai constaté chez le sujet l'existence de rêves qui dénotaient, bien des semaines à l'avance, l'existence d'une tendance à s'endommager soi-même; tendance qui, bien entendu, s'exprimait la plupart du temps de façon symbolique. Tous les accidents qui arrivent soit disant par inattention devraient être examinés dans la perspective d'une détermination éventuelle de cette sorte. On sait bien que lorsque, pour une raison ou une autre, on est mal disposé, il vous arrive non seulement des anicroches plus ou moins sérieuses, mais aussi parfois des choses graves qui, si elles surviennent à un moment psychologiquement approprié, peuvent même mettre un terme à une existence. D'ailleurs la sagesse populaire le dit : "Un tel est mort au bon moment", sentiment inspiré par une intuition très juste de la causalité psychologique du cas. De façon analogue, des maladies physiques peuvent être engendrées et entretenues. Un fonctionnement défectueux de l'âme peut porter au corps de notables dommages, de même que réciproquement une affection physique peut entraîner une souffrance de l'âme. Car l'âme et le corps ne sont pas des éléments séparés; ils constituent, au contraire, une seule et même vie. Aussi y a-t-il rarement une maladie somatique qui, alors même qu'elle n'a pas été déterminée par des causes psychiques, n'entraîne des complications morales d'une nature quelconque, complications qui, à leur tour, retentissent sur l'affection organique. Mais ce serait une erreur de ne mettre en relief que le côté défavorable de l'inconscient. Dans tous les cas courants, l'inconscient ne devient défavorable et dangereux que parce que nous sommes en désaccord avec lui, donc en opposition avec des tendances majeures de nous-mêmes. L'attitude négative à l'adresse de l'inconscient, voire sa répudiation par le conscient, sont nuisibles dans la mesure où les dynamismes de l'inconscient sont identiques à l'énergie des instincts. Par conséquent, un manque de contact et de liens avec l'inconscient est synonyme de déracinement et d'instabilité instinctuelle. Mais si l'on réussit à établir cette fonction, que j'ai dite transcendante, la désunion avec soi-même cessera et le sujet pourra bénéficier des apports favorables de l'inconscient. Car dès que la dissociation entre les divers éléments de soi-même cesse, l'inconscient accorde - l'expérience le prouve abondamment - toute l'aide et tous les élans qu'une nature bienveillante et prodigue peut accorder aux hommes. De fait l’inconscient recèle des possibilités qui sont absolument incessibles au conscient ; car il dispose de tous les contenus psychiques subliminaux, de tout ce qui a été oublié ou négligé, et, en outre, de la sagesse conférée par l'expérience d'innombrables millénaires, sagesse déposée et confiée à ses structures archétypiques.

Auteur: Jung Carl Gustav

Info: Dans "Psychologie de l'inconscient", trad. Roland Cohen, Livre de Poche, Paris, 1993, pages 195-198

[ conciliation ] [ dialectique ] [ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

polypeptides

Les biologistes dévoilent les formes moléculaires de la vie

On vous décrit la quête visant à comprendre comment les protéines se plient rapidement et élégamment pour prendre des formes qui leur permettent d'effectuer des tâches uniques.

Pour le hula hoop, vous vous levez et faites pivoter vos hanches vers la droite et vers la gauche. Pour faire du vélo, on s'accroupit, on tend les bras et on pédale sur les jambes. Pour plonger dans une piscine, vous étendez les bras, rentrez le menton et vous penchez en avant. Ces formes corporelles nous permettent d’entreprendre certaines actions – ou, comme pourrait le dire un biologiste, notre structure détermine notre fonction.

Cela est également vrai au niveau moléculaire. Chaque tâche imaginable effectuée par une cellule possède une protéine conçue pour l'exécuter. Selon certaines estimations, il existe 20 000 types différents de protéines dans le corps humain : certaines protéines des cellules sanguines sont parfaitement conçues pour capter les molécules d'oxygène et de fer, certaines protéines des cellules cutanées fournissent un soutien structurel, etc. Chacun a une forme adaptée à son métier. 

Cependant, si une protéine se replie mal, elle ne peut plus fonctionner, ce qui peut entraîner un dysfonctionnement et une maladie. En comprenant comment les protéines se replient, les biologistes gagneraient non seulement une compréhension plus approfondie des protéines elles-mêmes, mais pourraient également débloquer de nouvelles façons de cibler les protéines liées à la maladie avec de nouveaux médicaments.

Cela s’est avéré être un formidable défi scientifique. Chaque protéine commence par une chaîne de molécules plus petites liées appelées acides aminés. Lorsque les acides aminés s'alignent dans l'ordre dicté par un gène, ils se plient et prennent la forme appropriée de la protéine en quelques microsecondes – un phénomène qui a stupéfié les scientifiques du XXe siècle lorsqu'ils l'ont découvert. 

Dans les années 1950, le biochimiste Christian Anfinsen a émis l’hypothèse qu’il devait y avoir un code interne intégré à la chaîne d’acides aminés qui détermine la manière dont une protéine doit se replier. Si tel était le cas, pensait-il, il devrait exister un moyen de prédire la structure finale d'une protéine à partir de sa séquence d'acides aminés. Faire cette prédiction est devenu connu sous le nom de problème de repliement des protéines. Depuis, certains scientifiques ont redéfini le problème en trois questions liées : Qu'est-ce que le code de pliage ? Quel est le mécanisme de pliage ? Pouvez-vous prédire la structure d’une protéine simplement en regardant sa séquence d’acides aminés ? 

Les biologistes ont passé des décennies à tenter de répondre à ces questions. Ils ont expérimenté des protéines individuelles pour comprendre leurs structures et construit des programmes informatiques pour déduire des modèles de repliement des protéines. Ils ont étudié la physique et la chimie des molécules d’acides aminés jusqu’au niveau atomique pour découvrir les règles du repliement des protéines. Malgré cela, les biologistes n'ont fait que des progrès hésitants dans la compréhension des règles de repliement internes d'une protéine depuis qu'Anfinsen a exposé le problème.

Il y a quelques années, ils ont réalisé une avancée décisive lorsque de nouveaux outils d’intelligence artificielle ont permis de résoudre une partie du problème. Les outils, notamment AlphaFold de Google DeepMind, ne peuvent pas expliquer comment une protéine se replie à partir d'une chaîne d'acides aminés. Mais étant donné une séquence d’acides aminés, ils peuvent souvent prédire la forme finale dans laquelle elle se replie. 

Ce n’est que dans les décennies à venir qu’il deviendra clair si cette distinction – savoir comment une protéine se replie par rapport à ce en quoi elle se replie – fera une différence dans des applications telles que le développement de médicaments. Le magicien doit-il révéler le tour de magie ?

Quoi de neuf et remarquable

Début mai, Google DeepMind a annoncé la dernière itération de son algorithme de prédiction des protéines, appelé AlphaFold3, qui prédit les structures non seulement de protéines individuelles, mais également de protéines liées les unes aux autres et d'autres biomolécules comme l'ADN et l'ARN. Comme je l’ai signalé pour Quanta, cette annonce est intervenue quelques mois seulement après qu’un algorithme concurrent de prédiction des protéines – RosettaFold All-Atom, développé par le biochimiste David Baker de la faculté de médecine de l’Université de Washington et son équipe – a annoncé une mise à niveau similaire. " Vous découvrez désormais toutes les interactions complexes qui comptent en biologie ", m'a dit Brenda Rubenstein, professeure agrégée de chimie et de physique à l'Université Brown. Il reste néanmoins un long chemin à parcourir avant que ces algorithmes puissent déterminer les structures dynamiques des protéines lors de leur déplacement dans les cellules. 

Parfois, les protéines agissent de manière imprévisible, ce qui ajoute une autre difficulté au problème du repliement. La plupart des protéines se replient en une seule forme stable. Mais comme Quanta l’a rapporté en 2021, certaines protéines peuvent se replier sous plusieurs formes pour remplir plusieurs fonctions. Ces protéines à commutation de plis ne sont pas bien étudiées et personne ne sait quelle est leur abondance. Mais grâce aux progrès technologiques tels que la cryomicroscopie électronique et la résonance magnétique nucléaire à l’état solide, les chercheurs y voient plus clairement. De plus, certaines protéines possèdent des régions qui ne se plient pas selon une forme discrète mais qui bougent de manière dynamique. Comme Quanta l'a rapporté en février, ces protéines intrinsèquement désordonnées peuvent avoir des fonctions importantes, comme l'amélioration de l'activité des enzymes, la classe de protéines qui provoquent des réactions chimiques. 

Lorsque les protéines se replient mal, elles peuvent se regrouper et causer des ravages dans l’organisme. Les agrégats de protéines sont caractéristiques des maladies neurodégénératives comme la maladie d'Alzheimer, dans lesquelles des agrégats de protéines potentiellement toxiques appelés plaques amyloïdes s'accumulent entre les neurones et compromettent la signalisation du cerveau. Comme Quanta l’a rapporté en 2022 , l’agrégation des protéines pourrait être répandue dans les cellules vieillissantes ; comprendre pourquoi les protéines se replient mal et s’accumulent pourrait aider au développement de traitements pour les problèmes liés au vieillissement. Parfois, des protéines mal repliées peuvent également favoriser le mauvais repliement et l’agrégation d’autres protéines, déclenchant une cascade d’effets néfastes qui illustrent à quel point il est essentiel qu’une protéine se plie pour prendre sa forme appropriée.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ mai 2024, Mme Yasemin Saplakoglu

[ tridimensionnelles ] [ conformation protéique ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel