Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 9
Temps de recherche: 0.055s

roman d'anticipation

Vous savez, si je regarde mes livres, je dirai que je constate, et puis après je fais des projections, qui ne sont pas des prophéties… C’est assez difficile à expliquer, la projection dans la science-fiction. On va prendre un cas typique : quand Orwell écrit 1984 en 1948 en Angleterre, il ne dit pas du tout que c’est ce qui va arriver. Il veut exprimer une peur qui est dans l’inconscient des Britanniques de son époque, qui est : "On va tous devenir socialisés et contrôlés", et cette peur s’inscrit dans la culture britannique en général. Ce n’est pas une prédiction, c’est une expression de peur de son époque. Pour tous les livres de science-fiction connus, c’est un peu le même système. La science-fiction n’est pas prédictive, elle exprime les peurs d’une époque.

Auteur: Houellebecq Michel

Info: Interventions 2020

[ inquiétude moteur ]

 

Commentaires: 0

Ajouté à la BD par Bandini

justice

Intelligence artificielle : des robots à la place des juges ?
L’intelligence artificielle va-t-elle bientôt remplacer l’humain en matière judiciaire ? Les tribunaux seront-ils confiés à des robots qui feront office de magistrats ?
Ces questions peuvent prêter à sourire. Pourtant, en France, les cours d’appel de Rennes et de Douai ont participé, d’avril à juin 2017, à une expérimentation menée par le ministère de la Justice. Une dizaine de magistrats s’étaient portés volontaires pour tester la plate-forme de la société française Predictice, qui se targue d’être capable de prévoir l’issue d’un jugement grâce à l’intelligence artificielle. L’outil, basé sur un algorithme, est déjà utilisé par des cabinets d’avocats et des directions juridiques de grandes entreprises comme Axa ou Orange.
En scannant la jurisprudence des cours d’appel et de cassation, soit des centaines de milliers de documents, le logiciel en tire des statistiques qui permettent d’établir les chances de succès d’un dossier judiciaire et d’évaluer le montant des indemnités financières en cas de divorce, licenciement, troubles de voisinage, etc.
Cependant, les essais des cours d’appel de Rennes et de Douai n’ont pas été considérés concluants.
Mais on teste un peu partout en Europe des logiciels destinés à suppléer, voire remplacer les juges dans les affaires supposées les plus simples.
Il y a quelques jours, en Belgique, parmi les pistes pour réformer la justice, les experts consultés ont là-aussi remis au ministre un rapport évoquant la "justice prédictive" et expliquant que des algorithmes bien alimentés pourraient à l’avenir rendre des décisions lors de certains contentieux. La "robotisation de la justice" permettrait notamment de faire des économies et de tendre vers une plus grande efficacité, affirment ces experts.
Le juge-machine ne ferait pas intervenir sentiments, opinions et préjugés mais serait parfaitement neutre, lit-on encore.
Et certainement terriblement inhumain, devrait-on ajouter.Intelligence artificielle : des robots à la place des juges ?

Auteur: Internet

Info: Média presse info, Société, Depauw Pierre-Alain, 4 mars 2018

[ homme-machine ] [ impartialité ]

 

Commentaires: 0

intuition

Nouvelle de la Science, 23 Octobre 2007 : Comment gagner une élection ? En faisant une bonne première impression (en moins de 250 millisecondes).
Le jugement instantané des électeurs prévoit les gagnants des élections.
Compétent ? : Des étudiants qui ont jugé instantanément la compétence entre des paires de candidats au gouvernement ont montré que leurs choix prédisait les gagnants de l'élection réelle.
Hé, les candidats !!! Vous voulez gagner une élection ? C'est simple. Ayez juste l'air compétent - c'est égal si vous ne l'êtes pas. Un nouveau rapport confirme ce qui pourrait être le pire cauchemar de certaines personnes intéressées par la politique : le look est très important. Ainsi les chercheurs de l'université de Princeton ont demandé à des étudiants volontaires lequel parmi deux candidats dans une élection au gouvernement leur semblait le plus compétent. A la surprise des scientifiques, leurs sélections se sont avérées correspondre au choix des électeurs.
On a montré aux participants de l'étude des photos des gagnants et des perdants dans 89 élections politiques qui eurent lieu entre 1996 et 2002. Les sujets avaient 100 millisecondes, 250 millisecondes ou un temps illimité pour choisir le candidat qu'ils percevaient comme le plus compétent ; dans tous les cas ils devaient donner leur sentiment instinctif. Les choix des étudiants furent les gagnants des élections dans 64 pour cent des cas.
Dans une deuxième épreuve, on donna aux volontaires soit 250 millisecondes soit deux secondes de réflexion pour leurs décisions. Avec un plus grand temps de réflexion, les différentes réponses des étudiants devinrent de 5 à 7 pour cent moins prédictives, mais le taux global de succès a atteint jusqu'à 69.1 pour cent de moyenne. Dans une troisième expérience, utilisant des élections à venir, le groupe eut aussi de très bons résultats (68.6 pour cent quand on leur demanda de suivre leur première impulsion, mais en prenant autant temps qu'ils le voulaient pour répondre, leur permettant d'y réfléchir.
"Toute se passe dans les 250 premières millisecondes d'exposition, et après il ne se passe plus grand chose" dit Alexandre Todorov, professeur auxiliaire de psychologie et co-auteur de l'étude, qui est parue dans "Proceedings of National Academy of Sciences USA", notant que ces épreuves de 250-millisecondes eurent le plus grand des succès prédictif. Ajoutant : "s'il y a délibération, elles deviennent légèrement plus mauvaises. Cependant, les résultats sont toujours bien supérieurs à la chance pour détecter le gagnant."
Moshe Bar, principal chercheur du laboratoire visuel de Neurocognition de l'école de médecine de Harvard, indique que les impressions très rapides sont souvent plus appropriées aux jugements qui affectent la survie, comme si quelque chose que nous voyons pose une menace. "Je pense qu'il y a un répertoire de caractéristiques qui sont inscrites dans les dispositifs faciaux" dit-il. Bien que n'étant pas dans une logique de survie, nous faisons souvent des prévisions - par exemple quand à l'intelligence ou la capacité d'une personne pour gouverner - selon l'aspect de son visage. "Seulement pour nous protéger nous collons souvent à ces premières impressions" continue-t-il. "Nous tendons à nous tromper en modifiant plutôt rapidement notre avis, réalisant alors notre première impression était juste.

Auteur: Nikhil Swaminathan

Info: Fortean time

[ apparence ] [ choix ] [ première impression ] [ votations ]

 

Commentaires: 0

disponibilité mentale

Une zone du cerveau qui serait la porte de la conscience

Le cortex insulaire antérieur serait la porte de la conscience, d'après de nouveaux travaux américains. Inactivée, elle empêcherait la prise de conscience des stimuli.

Parmi les milliers de stimuli visuels, auditifs ou autres que notre cerveau traite en continu chaque jour, seuls certains passent la porte de notre conscience. Mais le mécanisme qui permet de sélectionner les stimuli dont nous avons conscience des autres n'est toujours pas clair. Pour des chercheurs du Center for Consciousness Science du Michigan Medicine (Etats-Unis), la clé se situerait dans une partie de notre cerveau appelée le cortex insulaire antérieur. Ces travaux sont publiés dans la revue Cell Reports.

LES 4 THÉORIES DE LA CONSCIENCE. Pour comprendre, mais aussi pour analyser les observations issues des expériences, la science de la conscience a besoin de théories. Il en existe quatre principales : l’espace de travail global, l’ordre supérieur, l’information intégrée et le processus récurrent ou de premier ordre. Pour en savoir plus, lisez le passionnant numéro de La Recherche d'avril-juin 2021 !

Une "structure critique" contrôlerait l'entrée des informations dans la conscience

"Le traitement de l'information dans le cerveau a deux dimensions : le traitement sensoriel de l'environnement sans conscience et celui qui se produit lorsqu'un stimulus atteint un certain niveau d'importance et entre dans la conscience", explique dans un communiqué Zirui Huang, premier auteur de la publication. "Malgré des décennies de recherche en psychologie et en neurosciences, la question de savoir pourquoi certains stimuli sensoriels sont perçus de manière consciente alors que d'autres ne le sont pas reste difficile à résoudre", introduisent les auteurs dans la publication. Ils émettent alors l'hypothèse qu'il existe une "structure critique" où "l'accès conscient aux informations sensorielles est contrôlé". Ils ont même un suspect : le cortex insulaire antérieur, qui a précédemment été reconnu comme une plaque tournante centrale du cerveau, notamment "car il reçoit des entrées de différentes modalités sensorielles et de l'environnement interne", comme les émotions. 

Lorsque le cortex insulaire antérieur est éteint, la conscience aussi

Pour le prouver, l'équipe se penche sur 26 sujets qu'ils examinent à l'IRM fonctionnelle, qui permet de voir les zones activées du cerveau dans le temps. Ils leur injectent alors un anesthésiant, le propofol, pour contrôler leur niveau de conscience. Comme imaginer une action active les mêmes zones du cerveau que de les réaliser réellement, les chercheurs ont ensuite demandé aux sujets de s'imaginer dans plusieurs situations. Ils devaient s'imaginer en train de jouer au tennis, de marcher le long d'un chemin ou de serrer leur main, ainsi que d'effectuer une activité motrice (serrer une balle en caoutchouc) alors qu'ils perdaient progressivement conscience et la retrouvaient après l'arrêt du propofol.

Résultat, la perte de conscience due au propofol "crée un dysfonctionnement du cortex insulaire antérieur" ainsi qu'une altération des réseaux cérébraux nécessaires aux états de conscience. En revanche, aucune des autres régions impliquées dans la régulation sensorielle ou l'éveil, comme le thalamus, ne répondaient de cette façon. "Un stimulus sensoriel active normalement le cortex insulaire antérieur", explique Hudetz. "Mais lorsque vous perdez conscience, le cortex insulaire antérieur est désactivé et les changements de réseau dans le cerveau qui soutiennent la conscience sont perturbés." Le cortex insulaire antérieur pourrait donc agir comme un filtre qui ne permet qu'aux informations les plus importantes d'entrer dans la conscience.

Le cortex insulaire antérieur serait la porte de la conscience

Pour confirmer ces résultats, la deuxième expérience cherche à savoir si l'activation du cortex insulaire antérieur est prédictive de la prise de conscience d'une information. Pour le savoir, les chercheurs montrent un visage sous forme d'image subliminale – qui reste 33 millisecondes à l'écran – à 19 volontaires sains placés dans l'IRM fonctionnelle. Les volontaires doivent ensuite dire s'ils ont vu ou non le visage. Les scientifiques constatent alors que l'activation préalable du cortex insulaire antérieur était prédictif de la capacité du sujet à percevoir consciemment l'image du visage. "Le cortex insulaire antérieur a une activité qui fluctue continuellement", explique Zirui Huang. "La détection d'un stimulus dépend de l'état de l'insula antérieure lorsque l'information arrive dans le cerveau : si l'activité de l'insula est élevée au moment du stimulus, vous verrez l'image. Sur la base des résultats de ces deux expériences, nous concluons que le cortex insulaire antérieur pourrait être une porte pour la conscience."



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Camille Gaubert, 4.05.2021

[ présence ] [ joignable ] [ accessible ] [ disponible ]

 

Commentaires: 0

Ajouté à la BD par miguel

mâles-femelles

La voix du mâle: un indicateur de fertilité et une base de choix pour les femelles ? L'exemple du cheval
On savait déjà que les vocalisations des mammifères, incluant l'homme, sont porteuses d'informations sur la familiarité, l'identité ou la taille de l'émetteur et que certaines vocalisations jouent un rôle dans la synchronisation et la coordination des partenaires sexuels. Dans une étude réalisée sur des chevaux, des chercheurs de l'unité EthoS, en collaboration avec l'Institut du cheval et de l'équitation, ont en outre découvert que non seulement la voix des étalons est porteuse d'information sur leur fertilité (succès reproducteur) mais que les juments se servent de ces mêmes paramètres acoustiques pour orienter leurs choix. Ces résultats publiés dans la revue PloS One constituent une avancée fondamentale majeure mais aussi une ouverture à des applications à l'élevage.
Il a été montré chez un certain nombre d'espèces de mammifères, incluant l'homme, qu'un auditeur est capable, entendant la voix d'un émetteur, d'évaluer son degré de familiarité (mones de Campbell, loutres asiatiques...), sa taille (cerfs, koalas, pandas...), son identité (babouins, morses...), son statut de dominance (babouins, hyènes tachetées...). Les humains sont capables d'évaluer l'âge d'un émetteur juste en entendant sa voix. Par ailleurs, les vocalisations peuvent servir de support à l'attraction de partenaires (microcèbes), renforcer le lien mâle-femelle (gibbons) ou coordonner les partenaires sexuels (macaques de barbarie). Quelques études ont montré que chez des espèces comme les macaques, les pandas (mais aussi les humains), les femelles prennent en compte les qualités vocales des mâles dans leurs choix de partenaires. Cependant, il peut être difficile de comprendre pourquoi de telles aptitudes pourraient avoir évolué et quelles conséquences ces choix peuvent avoir sur la reproduction et en particulier le succès reproducteur.
Des chercheurs de l'unité EthoS (A. Lemasson, M. Hausberger, M. Trabalon, K. Remeuf) se sont associés à des agents de l'Institut du Cheval et de l'Equitation - IFCE (F. Cuir, S. Danvy) pour réaliser une recherche sur ce sujet chez les chevaux domestiques. Dans la nature, les juments choisissent activement l'étalon et donc le groupe familial dans lequel elles vont s'insérer, repérant à distance les partenaires potentiels. Les hennissements en particulier sont une vocalisation permettant la communication à distance (en particulier hors contact visuel) et l'équipe rennaise avait déjà démontré qu'ils sont porteurs d'informations sur la familiarité sociale, le statut de dominance, le sexe et la taille de l'émetteur. Dans cette étude, ils se sont donc interrogés sur leur rôle possible dans les choix de partenaires et les conséquences éventuelles de ces choix. L'intérêt du cheval, outre les raisons invoquées ci-dessus, est aussi qu'il y a une gestion très contrôlée de sa reproduction dans le milieu de l'élevage et qu'il était ainsi possible non seulement d'expérimenter mais aussi de disposer de données précises sur la fertilité des étalons.
L'étude a été réalisée en deux étapes: 1) tester le lien éventuel entre paramètres acoustiques de la voix des étalons et des caractéristiques de reproduction 2) tester les préférences de juments pour ces paramètres acoustiques.
Dans un premier temps donc, les voix de 15 étalons reproducteurs d'âge et de race variés ont été enregistrées dans trois Haras nationaux alors qu'ils étaient tenus en main par un agent des Haras et voyaient une jument à distance. Leur voix a été analysée et comparée d'une part à des données de qualité du sperme et aux données (pluriannuelles) de succès de reproduction issues de la base de données de l'IFCE. Les résultats confirment l'existence de grandes différences entre individus mais surtout ont révélé qu'il y avait une corrélation claire entre des paramètres de fréquence acoustique et le succès reproducteur, comme par exemple le nombre de naissances par rapport au nombre d'inséminations: les étalons avec la voix plus grave présentaient davantage de gestations réussies ! De façon intéressante, les paramètres vocaux se sont révélés plus fiables dans la prédiction de la fertilité que les spermogrammes...
Dans un second temps, 40 juments adultes, dont 29 hébergées au Haras du Pin et 11 dans un centre équestre, ont été individuellement confrontées à la diffusion simultanée de deux hennissements d'étalons par des haut-parleurs placés à l'opposé dans un espace de grande taille (manège) ou dans deux corridors. Les hennissements, au vu des données ci-dessus, avaient été choisis pour représenter des extrêmes en terme de fréquence acoustique, donc il s'agissait de hennissements d'étalons inconnus ayant des voix respectivement très aigues ou très graves. Les résultats montrent que les juments ont une très nette préférence pour les voix graves: elles tournent la tête, s'approchent et restent plus à proximité du haut-parleur diffusant le hennissement grave.
Ces résultats originaux ouvrent des lignes de réflexion scientifique très importantes sur le lien entre caractéristiques vocales et reproduction chez les mammifères, suggérant que ces caractéristiques pourraient constituer un outil majeur d'évaluation de compétences, dépassant même des mesures "classiques" de fertilité dont on a montré, même chez l'homme, qu'elles étaient insuffisamment prédictives. Ils contribuent aux débats sur les affinités sociales et sexuelles. Ils appellent maintenant à une recherche approfondie sur les mécanismes qui peuvent relier caractéristiques vocales et fertilité, nécessairement à différents niveaux d'intégration. Enfin, ils témoignent aussi de l'enrichissement mutuel de recherches fondamentales et appliquées. D'un côté, seule la connaissance approfondie des caractéristiques reproductrices de ces étalons par le milieu de l'élevage a permis de répondre à cette question fondamentale, d'un autre côté, ces résultats fondamentaux ouvrent vers des applications envisageables à la gestion de la reproduction de cette espèce d'intérêt économique.

Auteur: Internet

Info:

[ son ]

 

Commentaires: 0

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

multinationales

Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique ?

Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec "seulement" 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir.

Ces mastodontes de l’économie numérique représenteraient à eux seuls, près de 60% de nos usages numériques quotidiens. A l’heure où la France commence à prendre sérieusement conscience des enjeux de l’économie numérique, ces géants numériques ont une sacré longueur d’avance dans cette nouvelle révolution industrielle. Est-il trop tard ? Sans doute. Mais la France et l’Europe n’ont pas dit leur dernier mot.

- Qui sont vraiment ces GAFAM et NATU ? Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Cette dernière qui était censée prolonger numériquement l’économie traditionnelle commence en réalité en train de la vampiriser sérieusement. Ce qu’on a appelé l’ubérisation de l’économie en référence à la société américaine Uber qui détruit progressivement le modèle de fonctionnement des taxis pour s’approprier d’énormes parts de marché. Google est un peu la matrice du système car il touche à tout : il fournit gratuitement à chacun la boîte à outils pour naviguer dans les mondes numériques et se finance en revendant les précieuses données qu’il récolte. Apple vend une partie du matériel nécessaire pour évoluer dans ce monde numérique, mais également de la musique et des films dont il a révolutionné la distribution. Facebook est le réseau social mondial qui permet à chacun de suivre la vie et les activités des autres.

Notons qu’avec Google, Facebook est devenu une régie publicitaire mondiale qui permet de cibler de façon chirurgicale des publicités avec une audience potentielle qui se chiffre en milliard d’individus. Amazon est en passe de devenir le distributeur mondial de l’économie numérique, menaçant des géants comme Wall Mart aux Etats Unis et peut-être Carrefour ou Auchan demain. - Et les nouveaux venus ? Netflix ? Air BNB ? Telsa ? Uber ? Netflix est la plus grosse plateforme de diffusion de films et séries. Il est également producteur et en ligne va sans doute faire exploser le modèle de la télévision. Air BNB est en train d’appliquer la même punition au secteur hôtelier en permettant à chacun de louer une chambre ou une maison d’un simple clic. Ou presque. Tesla révolutionne l’énergie avec la production de voiture et de batteries électriques d’une nouvelle génération et possède aussi SpaceX, un lanceur de fusée. Quand à Uber, il révolutionne la mobilité avec les taxis. Mais pas que…

Cela sous-entend que ces acteurs ne se cantonnent pas à leur "coeur de métier" comme on dit ? Tout à fait. Ils sont si puissant financièrement qu’ils investissent dans de très nombreux domaines. N’oublions pas que Youtube qui diffuse 4 milliard de vidéos par jour appartient à Google et que Facebook en revendique près de 3 milliards chaque jour. Les audiences des plus grandes chaines de télé se comptent plutôt en millions. Amazon est connu pour être une librairie en ligne mais vend aujourd’hui presque tout sur sa plateforme, même de la micro main d’oeuvre avec sa plateforme Mechanical Turk. Google investit dans presque tout, de la médecine prédictive aux satellites, en passant par les lunettes connectées et les voitures (Google car). Et quand les chauffeurs taxis s’excitent sur Uber pop, on oublie qu’Uber s’occupe aussi de la location de voitures et de la livraison de colis. Selon le cabinet d’études FaberNovel, les Gafam se positionnent directement ou non sur les 7 industries clefs de la transformation numérique : les télécoms et l’IT, la santé, la distribution, les énergies, les média et le divertissement, la finance ainsi que le voyage et les loisirs.

Cette concentration de pouvoir technologique et financier n’est-elle pas un risque pour l’économie ? On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Ces géants disposent de nombreux atouts. Ils ont des réserves de cash gigantesques, ils ont une vision à 360 degrés de ce qui se passe aujourd’hui dans l’innovation, ils attirent les plus grands talents et se positionnent sur les nouveaux marchés issus de la transformation numérique comme l’internet des objets, la robotique, voitures, les drones…. Ils diversifient leurs activités et deviennent des prédateurs redoutables de l’économie traditionnelle.

Quelques chiffres donnent le vertige. Google contrôle 90 % de la recherche dans le monde. Apple 45 % du trafic Web issu des smartphones. Facebook 75 % des pages vues sur les réseaux sociaux aux Etats-Unis. Et si demain une pépite émerge, il est presqu’assuré que cette dernière tombera dans l’escarcelle d’un de ces géants. - Que peuvent faire les autres pays ? Il y a toujours 2 types d’attitudes devant un tel défi. Attaquer ou défendre. Ou les deux. Et sur plusieurs terrains. L’innovation et la recherche bien sûr, en essayant d’inventer non seulement des concurrents à ces mastodontes, mais aussi en explorant d’autres domaines prometteurs. L’Europe pré-technocratique avait réussi à faire des Airbus et des fusées Ariane. Elle hébergent encore de grands leaders industriels de la santé, du commerce et de la distribution. Mais ses modèles datent du 20ème siècle et clairement, le virage du numérique n’a pas été pris à temps. Inventeur du Minitel dans les années 80, la France aurait pu prendre une avance stratégique dans ce domaine mais cela aurait sans doute du se jouer au niveau européen.

Contrairement à la Chine (avec Baidu et Alibaba) ou à la Russie (Yandex, Rutube), l’Europe n’a malheureusement rien lancé de significatif dans ce domaine. - Justement n’est-ce pas au niveau continental que des leviers existent ? Certainement. S’il est difficile de mettre en place des consortium numériques à l’échelle européenne, par exemple pour concurrencer les GAFAM dans leurs fonctions stratégiques, des leviers législatifs, juridiques et fiscaux sont en revanche déjà utilisés pour attaquer les géants américains qui sont rarement respectueux des règles locales. Amazon, qui concentrait ses revenus au Luxembourg va devoir payer des impôts dans chaque pays dans lequel il évolue. Google a été condamné pour avoir favorisé ses propres services de shopping a du se plier aux exigences de la CNIL française pour mettre en place un droit à l’oubli. Mais cela sonne comme des gouttes d’eau dans l’océan et surtout cela concerne essentiellement des mesures défensives, comme si la bataille était déjà perdue. Internet,

Auteur: Internet

Info: http://www.econum.fr/gafa, 20 septembre 2015

[ transnationales ] [ puissance ] [ domination ] [ pouvoirs comprador ]

 

Commentaires: 0

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel