Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 236
Temps de recherche: 0.0488s

réversibilité

La gravité quantique pourrait inverser causes et effets.

Toute théorie de la gravité quantique va devoir se colleter avec des trucs temporels bizarres.

Vous avez probablement entendu parler du chat de Schrödinger, ce  malheureux félin, dans une boîte, où il est simultanément vivant et mort jusqu'à ce que la boîte soit ouverte pour révéler son état réel. Maintenant, faites-vous une idée du temps de Schrödinger, une situation dans laquelle un événement peut être simultanément la cause et l'effet d'un autre événement. 

Un tel scénario pourrait être inévitable dans la théorie de la gravité quantique, domaine encore flou d'une physique qui cherche à combiner la théorie de la relativité générale d'Albert Einstein avec les mécanismes de la mécanique quantique. Dans un nouvel article, des scientifiques créent un mélange des deux en imaginant des vaisseaux spatiaux près d'une énorme planète dont la masse ralentit le temps. Ils en concluent que les vaisseaux pourraient se retrouver dans un état où la causalité est inversée : Tel événement pourrait finir par causer un autre événement qui s'est produit avant le premier. 

"On peut imaginer ce genre de scénario dans l'ordre temporel, où la cause et l'effet sont en superposition, inversés ou non", a déclaré le co-auteur de l'étude, Igor Pikovski, physicien au Center for Quantum Science and Engineering du Stevens Institute of Technology, dans le New Jersey. "C'est quelque chose qui devrait normalement se produire une fois que nous aurons une théorie complète de la gravité quantique".

Le temps quantique

La célèbre expérience de pensée du chat de Schrödinger demande à un spectateur d'imaginer une boîte contenant un chat et une particule radioactive qui, une fois désintégrée, tuera le malheureux félin. En vertu du principe de superposition quantique, la survie ou la mort du chat est tout aussi probable jusqu'à ce qu'elle soit mesurée - ainsi, jusqu'à ce que la boîte soit ouverte, le chat est simultanément vivant et mort. En mécanique quantique, la superposition signifie qu'une particule peut exister dans plusieurs états en même temps, tout comme le chat de Schrödinger. 

Cette nouvelle expérience de pensée, publiée le 21 août dans la revue Nature Communications, combine le principe de superposition quantique avec la théorie de la relativité générale d'Einstein. Selon la relativité générale, la masse d'un objet géant peut ralentir le temps. Ce phénomène est bien établi et mesurable, a déclaré M. Pikovski ; un astronaute en orbite autour de la Terre verra le temps s'écouler un tout petit peu plus vite que son jumeau sur la planète. (C'est aussi pourquoi tomber dans un trou noir serait une expérience très graduelle). 

Ainsi, si un vaisseau spatial futuriste se trouve à proximité d'une planète massive, son équipage ressentira le temps comme un peu plus lent que les personnes situées dans un autre vaisseau spatial stationné plus loin. Ajoutez à ça un peu de mécanique quantique et vous pouvez imaginer une situation dans laquelle cette planète est superposée simultanément près et loin des deux vaisseaux spatiaux. 

Le temps devient bizarre

Dans ce scénario de superposition de deux vaisseaux qui expérimentent le temps sur des lignes temporelles différentes, la cause et l'effet peuvent devenir bizarres. Par exemple, supposons que les vaisseaux doivent effectuer une mission d'entraînement au cours de laquelle ils se tirent dessus et s'esquivent mutuellement, en sachant parfaitement à quel moment les missiles seront lancés et intercepteront leurs positions. S'il n'y a pas de planète massive à proximité qui perturbe l'écoulement du temps, c'est un exercice simple. En revanche, si cette planète massive est présente et que le capitaine du vaisseau ne tient pas compte du ralentissement du temps, l'équipage pourrait être en retard pour esquiver et être détruit. 

Avec une telle planète en superposition, simultanément proche et lointaine, il serait impossible de savoir si les vaisseaux esquivent trop tard et se détruisent mutuellement ou s'ils s'écartent et survivent. Qui plus est, la cause et l'effet pourraient être inversés, selon M. Pikovski. Bref il faut imaginer deux événements liés par la causalité

"A et B peuvent s'influencer mutuellement dans un état de superposition, mais dans un cas, A est avant B et inversément, explique M. Pikovski. Ce qui signifie que A et B sont simultanément la cause et l'effet l'un de l'autre. Heureusement pour les équipages, sans doute très confus, de ces vaisseaux spatiaux imaginaires, dit Pikovski, ils auraient un moyen mathématique d'analyser les transmissions de l'autre pour confirmer qu'ils sont dans un état de superposition.

Évidemment, dans la vie réelle c'est très différent. Mais l'expérience de pensée pourrait avoir des implications pratiques pour l'informatique quantique, même sans élaborer une théorie complète de cette dernière, a déclaré M. Pikovski. En utilisant les superpositions dans les calculs, un système d'informatique quantique pourrait évaluer simultanément un processus en tant que cause et en tant qu'effet. 

"Les ordinateurs quantiques pourraient être en mesure de l'utiliser pour des calculs plus efficaces", a-t-il déclaré.

Auteur: Internet

Info: https://www.livescience.com/. Stephanie Pappas Le 28 août 2019

[ nanomonde ] [ coexistence ]

 

Commentaires: 0

Ajouté à la BD par miguel

spéculations

Les expériences d'Alain Aspect ont confirmé la réalité du phénomène d'intrication quantique (expériences sur photons intriqués). Celles-ci montrent qu'au niveau quantique la notion d'espace n'a plus de sens puisque quelle que soit la "distance", l'action sur un photon A se communique instantanément à son photon intriqué B (en violation de la limite de c = vitesse de la lumière). Cette propriété explique pourquoi les mécaniciens quantiques affirment que la physique quantique est une PHYSIQUE NON LOCALE (elle exclut la réalité objective de l'espace).

Mais cela va encore plus loin: l'intrication nie aussi le temps et les schémas de causalité classique : l'action sur un photon A modifie par "rétroaction" les propriétés du photon B intriqué, dans le passé. Cela signifie que la physique quantique ne prend pas en compte le temps et les schémas de consécution de la mécanique classique (causalité présent-futur). Comment une physique qui n’intègre pas l'espace et le temps est-elle possible ?

La réponse tient en ces termes: NOUS sommes les "porteurs" de l'espace et du temps en tant que conscience, et ceux-ci n'ont aucune réalité objective. C'est là un magnifique triomphe rétrospectif de ce que Kant avait déjà affirmé au XVIIIe siècle dans La Critique de la raison pure. Mais la nouvelle physique gravit une marche de plus: outre la "conscience transcendantale" dont parlait Kant, il faut ajouter l'information, c'est-à-dire un univers d'objets mathématiques purement intelligibles qui, dans leurs rapports à la conscience, produisent le "monde phénoménal", celui que nous percevons. La "réalité perçue" est un vaste simulacre ou comme l'écrivait David Bohm, le lieu d'une fantastique "magie cosmique".

Des consciences exogènes l'ont déjà compris et utilisent leur maîtrise de l'information pour interférer avec notre monde. La science informatique, en digitalisant la matière (c'est-à-dire en remontant aux sources mathématiques de la réalité) a, sans le savoir, reproduit via la technologie de nos ordinateurs, le mode de production "phénoménal" de notre monde.

Ces indications sont en mesure, me semble-t-il, d’aider le lecteur à investir les thèses de mon ami Philippe Guillemant qui sont d’une importance considérable. Il ne s’agit nullement de résumer sa pensée, ni de jouer au physicien que je ne suis pas, mais de fournir quelques degrés de l’escalier qui mènent à la compréhension de ses travaux. En tant que philosophe, il m’apparaît aussi légitime de mettre ces nouvelles connaissances en lien avec des doctrines philosophiques du passé, spécialement celles de Platon et de Kant. Philippe Guillemant ne se contente pas de nous dire que l’espace et le temps sont des cadres de la conscience puisqu’il montre que la conscience est active et se révèle capable de réécrire ou de modifier les données qui constituent la trame la plus intime de la réalité. Il rejette l’idée d’un "ordinateur quantique géant" qui produirait le réel phénoménal et relie cette production à l’activité de la conscience. Il ne m’appartient ici de discuter les raisons de ce "basculement", mais celui-ci me paraît décisif et permet de trancher le débat qui consiste à savoir si l’étoffe de la réalité est de nature algorithmique ou mathématique.

Si on rejette le modèle de l’ordinateur quantique, on ne peut se rallier qu’à la seconde hypothèse qui permet de résoudre un des plus anciens problèmes de l’épistémologie depuis la naissance de la physique mathématique : comment se fait-il que nos opérations sur des objets mathématiques soient en si grande "adhérence" avec le monde de la physique ? Comment expliquer que le travail sur une "écriture mathématique" puisse, bien avant sa confirmation expérimentale, "découvrir" des objets du monde physique comme l’antimatière, les trous noirs, le boson de Higgs, etc. ? Cette question, qu’Albert Einstein, avait appelé le "mystère du miracle des mathématiques" trouve ici un début de résolution si nous posons que la réalité est d’essence mathématique.

L’information pure que Pythagore, Platon et plus tard John Dee avaient identifiée à des formes intelligibles de type mathématique est cette "brique" fondamentale qui rend possible, par sa manipulation, toutes les apparences de notre monde. Certes, nous ne sommes pas au bout de nos peines car entre cette base ontologique (le réel est constitué d’essences mathématiques en interaction avec des consciences actives) et la mise en lumière du modus operandi de cette maîtrise de l’information pour produire un monde phénoménal ou interférer avec lui (comme le font à mon sens les OVNIS), il reste encore du chemin à parcourir. Je n’oublie pas cependant que Philippe Guillemant propose une solution à cette question en centrant son analyse sur la capacité pour la conscience, par excitation du vide quantique (véritable "mer d’informations"), de "travailler" sur l’information et sur les manifestations phénoménales qu’elles permettent de produire.

Mais quel prodigieux changement de perspective nous offre ce nouveau cadre ! La cosmologie antique nous parlait de mondes emboîtés dans des sphères physiques (mondes sublunaire, supralunaire, cercles concentriques décrivant des régions dans les espaces éthérés) ; le physique "classique" nous a ensuite parlé d’échelles physiques de plus en plus petites jusqu’au mur de Planck. Avec cette nouvelle approche, le véritable "emboîtement" est celui par lequel on décrit des niveaux de densité de l’information plus ou moins élevés selon une échelle qui n’est plus physique mais informationnelle : J’ai l’intime conviction que la résolution du mystère des OVNIS se trouve dans la considération de cette échelle des densités. Nous occupons, en tant que conscience humaine, un certain étage sur cette échelle, et nos "visiteurs" sont en mesure de pénétrer à notre étage tout en jouant à l’envi avec les paramètres qui définissent la structure de notre monde.

Auteur: Solal Philippe

Info: Les ovnis, la conscience et les mathématiques, 18/03/2015

[ niveaux de réalité ] [ extraterrestres ] [ inconscient ] [ projectionnistes ] [ paranormal ] [ mondes vibratoires ] [ astral ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

cosmologie

Vivons-nous dans un trou noir ?

Notre univers pourrait bien se trouver dans un vaste trou noir.
Remontons le temps : avant la venue de l’Homme, avant l’apparition de la Terre, avant la formation du soleil, avant la naissance des galaxies, avant toute lumière… il y a eu le Big Bang. C’était il y a 13,8 milliards d’années.

Mais avant cela ? De nombreux physiciens avancent qu’il n’y avait rien avant cela. Le temps a commencé à s’écouler, insistent-ils, au moment du Big Bang et méditer sur tout ce qui aurait pu se produire avant ne relève pas de la science. Nous ne comprendrons jamais à quoi pouvait ressembler le pré-Big Bang, ou bien ce dont il était constitué, ou encore qui a provoqué son explosion ayant mené à la formation de notre univers. Toutes ces notions vont au-delà de la compréhension dont l’Homme est capable.

Pourtant, quelques scientifiques non-conventionnels ne sont pas d’accord. D’après la théorie de ces physiciens, un peu avant le Big Bang, toute la masse et l’énergie de l’univers naissant étaient compactées dans une boule incroyablement dense – mais pas infinie. Appelons-la la graine d’un nouvel univers.

On imagine cette graine d’une taille incroyablement petite, peut-être des trillions de fois plus petite que n’importe quelle particule observable par l’Homme aujourd’hui. Et pourtant, il s’agit d’une particule capable de déclencher la particule de toutes les autres particules, sans oublier les galaxies, le système solaire, les planètes et les êtres vivants.

S’il n’y avait qu’une chose à appeler la particule de Dieu, cela y ressemble bien.

Mais comment une telle graine peut-elle se former ? Il y a bien une idée qui circule depuis quelques années, notamment soutenue par Nikodem Poplawski de l’Université de New Haven, selon laquelle la graine de notre univers a été forgée dans le four ultime, probablement l’environnement le plus extrême qui soit : dans un trou noir.

LA MULTIPLICITÉ DU MULTIVERS
Avant d’aller plus loin, il est essentiel d’avoir en tête qu’au cours des vingt dernières années, de nombreux physiciens théoriciens en sont venus à croire que notre univers n’est pas le seul. Au lieu de cela, nous faisons plus probablement partie du multivers, un immense tableau constitué d’univers distincts, chacun centré sur son étoile brillant dans le ciel de la nuit.

Comment, ou même si, un univers est lié à un autre fait l’objet de nombreuses discussions, toutes extrêmement spéculatives et impossibles à prouver à l’heure actuelle. Selon une théorie convaincante, la graine de l’univers ressemble à celle d’une plante : il s’agit d’un fragment de matériau essentiel, très compressé, caché dans une enveloppe protectrice.

C’est précisément ce qui se crée au sein d’un trou noir. Les trous noirs sont les restes d’étoiles géantes. Lorsqu’une telle étoile arrive à cours d’énergie, son noyau se détruit à l’intérieur et la gravité se charge de transformer le tout en un ensemble incroyablement puissant. Les températures atteignent 100 milliards de degrés ; les atomes sont écrasés ; les électrons sont broyés ; et tous ces éléments sont ballottés encore et encore.

À ce stade, l’étoile est devenue un trou noir dont l’attraction gravitationnelle est telle que pas même un faisceau de lumière ne peut s’en échapper. La frontière entre l’intérieur et l’extérieur d’un trou noir est nommée" l’horizon des événements". D’énormes trous noirs, certains des millions de fois plus massifs que le soleil, ont été découverts au centre de presque toutes les galaxies, dont notre propre Voie Lactée.

DES QUESTIONS À L'INFINI
Si vous vous basez sur les théories d’Einstein pour déterminer ce qui se produit au fond d’un trou noir, vos calculs vous mèneront à un endroit infiniment dense et petit : un concept hypothétique appelé singularité. Mais les infinités n’ont pas vraiment leur place dans la nature et le fossé se creuse avec les théories d’Einstein, qui permettent une incroyablement bonne compréhension du cosmos mais ont tendance à s’effondrer dès lors que d’énormes forces sont impliquées, comme celles en action dans un trou noir ou encore celles qui ont rythmé la naissance de notre univers.

Des physiciens comme le Dr. Poplawski avancent que la matière d’un trou noir atteint un point à partir duquel elle ne peut plus être écrasée. Aussi petite puisse-t-elle être, cette "graine" pèse le poids d’un milliard de soleils et est bien réelle, contrairement à une singularité.

Selon le Dr. Poplawski, le processus de compaction cesse car les trous noirs sont en rotation, ce qui dote la graine compactée d’une bonne torsion. Elle n’est alors pas seulement petite et lourde ; elle devient tordue et compressée, comme ces jouets montés sur ressorts, prêts à jaillir de leur boîte.

Jouets qui peuvent rapidement se rétracter lorsqu’on les y force. Appelez ça le Big Bang – ou le "big bounce" (le grand rebond) comme le Dr. Poplawski aime à le dire.

En d’autres termes, il est possible que le trou noir soit comme un conduit – une "porte à sens unique", explique le Dr. Poplawski – entre deux univers. Cela signifie que si vous tombez dans le trou noir au centre de la Voie Lactée, on peut imaginer que vous (ou du moins les particules complètement éclatées dont vous étiez auparavant composés) finirez dans un autre univers. Celui-ci ne se situe pas dans le nôtre, comme l’ajoute le scientifique : le trou fait tout bonnement office de lien, comme une racine partagée qui connecterait entre eux deux peupliers.

Qu’en est-il de nous autres, ici, dans notre propre univers ? Nous pourrions alors bien être le produit d’un autre univers, plus ancien. Appelons-le notre univers "mère". La graine que cette mère a forgée au sein d’un trou noir aurait peut-être connu son grand rebond il y a 13,8 milliards d’années. Et même si notre univers s’est étendu rapidement depuis, il se pourrait bien que nous soyons toujours cachés derrière l’horizon des événements d’un trou noir.

Auteur: Internet

Info: De Michael Finkel sur https://www.nationalgeographic.fr, avril 2019

[ spéculation ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

chronos

Comment les physiciens explorent et repensent le temps

Le temps est inextricablement lié à ce qui pourrait être l’objectif le plus fondamental de la physique : la prédiction. Qu'ils étudient des boulets de canon, des électrons ou l'univers entier, les physiciens visent à recueillir des informations sur le passé ou le présent et à les projeter vers l'avant pour avoir un aperçu de l'avenir. Le temps est, comme l’a dit Frank Wilczek, lauréat du prix Nobel, dans un récent épisode du podcast The Joy of Why de Quanta, " la variable maîtresse sous laquelle le monde se déroule ".  Outre la prédiction, les physiciens sont confrontés au défi de comprendre le temps comme un phénomène physique à part entière. Ils développent des explications de plus en plus précises sur la caractéristique la plus évidente du temps dans notre vie quotidienne : son écoulement inexorable. Et des expériences récentes montrent des façons plus exotiques dont le temps peut se comporter selon les lois de la mécanique quantique et de la relativité générale. Alors que les chercheurs approfondissent leur compréhension du temps dans ces deux théories chères, ils se heurtent à des énigmes qui semblent surgir de niveaux de réalité plus obscurs et plus fondamentaux. Einstein a dit en plaisantant que le temps est ce que mesurent les horloges. C'est une réponse rapide. Mais alors que les physiciens manipulent des horloges de plus en plus sophistiquées, on leur rappelle fréquemment que mesurer quelque chose est très différent de le comprendre. 

Quoi de neuf et remarquable

Une réalisation majeure a été de comprendre pourquoi le temps ne s'écoule qu'en avant, alors que la plupart des faits physiques les plus simples peuvent être faits et défaits avec la même facilité.  La réponse générale semble provenir des statistiques des systèmes complexes et de la tendance de ces systèmes à passer de configurations rares et ordonnées à des configurations désordonnées plus courantes, qui ont une entropie plus élevée. Les physiciens ont ainsi défini une " flèche du temps " classique dans les années 1800, et dans les temps modernes, les physiciens ont remanié cette flèche probabiliste en termes d’intrication quantique croissante. En 2021, ma collègue Natalie Wolchover a fait état d’une nouvelle description des horloges comme de machine qui ont besoin du désordre pour fonctionner sans problème, resserrant ainsi le lien entre emps et entropie. 

Simultanément, les expérimentateurs se sont fait un plaisir d'exposer les bizarres courbures et crépitements du temps que nous ne connaissons pas, mais qui sont autorisés par les lois contre-intuitives de la relativité générale et de la mécanique quantique. En ce qui concerne la relativité, Katie McCormick a décrit en 2021 une expérience mesurant la façon dont le champ gravitationnel de la Terre ralentit le tic-tac du temps sur des distances aussi courtes qu'un millimètre. En ce qui concerne la mécanique quantique, j'ai rapporté l'année dernière comment des physiciens ont réussi à faire en sorte que des particules de lumière fassent l'expérience d'un écoulement simultané du temps vers l'avant et vers l'arrière.

C'est lorsque les physiciens sont confrontés à la formidable tâche de fusionner la théorie quantique avec la relativité générale que tout ça devient confus ; chaque théorie a sa propre conception du temps, mais les deux notions n’ont presque rien en commun.

En mécanique quantique, le temps fonctionne plus ou moins comme on peut s'y attendre : vous commencez par un état initial et utilisez une équation pour le faire avancer de manière rigide jusqu'à un état ultérieur. Des manigances quantiques peuvent se produire en raison des façons particulières dont les états quantiques peuvent se combiner, mais le concept familier du changement se produisant avec le tic-tac d’une horloge maîtresse reste intact.

En relativité générale, cependant, une telle horloge maîtresse n’existe pas. Einstein a cousu le temps dans un tissu espace-temps qui se plie et ondule, ralentissant certaines horloges et en accélérant d’autres. Dans ce tableau géométrique, le temps devient une dimension au même titre que les trois dimensions de l'espace, bien qu'il s'agisse d'une dimension bizarroïde qui ne permet de voyager que dans une seule direction.

Et dans ce contexte, les physiciens dépouillent souvent le temps de sa nature à sens unique. Bon nombre des découvertes fondamentales de Hawking sur les trous noirs – cicatrices dans le tissu spatio-temporel créées par l’effondrement violent d’étoiles géantes – sont nées de la mesure du temps avec une horloge qui marquait des nombres imaginaires, un traitement mathématique qui simplifie certaines équations gravitationnelles et considère le temps comme apparié à l'espace. Ses conclusions sont désormais considérées comme incontournables, malgré la nature non physique de l’astuce mathématique qu’il a utilisée pour y parvenir.

Plus récemment, des physiciens ont utilisé cette même astuce du temps imaginaire pour affirmer que notre univers est l'univers le plus typique, comme je l'ai rapporté en 2022. Ils se demandent encore pourquoi l'astuce semble fonctionner et ce que signifie son utilité. "Il se peut qu'il y ait ici quelque chose de profond que nous n'avons pas tout à fait compris", a écrit le célèbre physicien Anthony Zee à propos du jeu imaginaire du temps dans son manuel de théorie quantique des champs.

Mais qu’en est-il du temps réel et à sens unique dans notre univers ? Comment les physiciens peuvent-ils concilier les deux images du temps alors qu’ils se dirigent sur la pointe des pieds vers une théorie de la gravité quantique qui unit la théorie quantique à la relativité générale ? C’est l’un des problèmes les plus difficiles de la physique moderne. Même si personne ne connaît la réponse, les propositions intrigantes abondent.

Une suggestion, comme je l’ai signalé en 2022, est d’assouplir le fonctionnement restrictif du temps en mécanique quantique en permettant à l’univers de générer apparemment une variété d’avenirs à mesure qu’il grandit – une solution désagréable pour de nombreux physiciens. Natalie Wolchover a écrit sur la suspicion croissante selon laquelle le passage du temps résulte de l'enchevêtrement de particules quantiques, tout comme la température émerge de la bousculade des molécules. En 2020, elle a également évoqué une idée encore plus originale : que la physique soit reformulée en termes de nombres imprécis et abandonne ses ambitions de faire des prévisions parfaites de l’avenir.

Tout ce que les horloges mesurent continue de s’avérer insaisissable et mystérieux. 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 1 avril 2024

 

Commentaires: 0

Ajouté à la BD par miguel

âme

Panpsychisme, l'esprit des pierres La plupart pense que tous les humains sont conscients, ainsi que beaucoup d'animaux. Certains, comme les grands singes, semblent même être timides comme nous. D'autres, comme les chiens et les chats, les porcs, manquent d'un sens de l'ego mais ils semblent éprouver les états intérieurs de plaisir, etc... Pour les créatures plus petites, comme des moustiques, nous ne sommes pas aussi sûrs et n'avons pas de scrupules pour les massacrer. Quant aux plantes, elles n'ont évidemment pas d'esprit, excepté dans des contes de fées. Et encore moins les choses non vivantes comme les tables et les pierres. Les Atomes Mentaux "Si l'évolution fonctionne en douceur, une certaines forme de conscience doit être présente à l'origine même des choses. On constate que les philosophes évolutionnistes commencent à en poser le principe. Chaque atome de la galaxie, supposent-ils, doit avoir eu un atome original de conscience lié avec lui. Les atomes mentaux... sont alors fondu en de plus grandes consciences : nous-mêmes et peut-être chez nos camarade-animaux." James William, Principes de Psychologie 1890 Tout paraît de bon sens. Mais le bon sens n'a pas toujours été un si bon guide pour comprendre le monde et sa partie la plus récalcitrante à notre compréhension à l'heure actuelle est bien la conscience elle-même. Comment les processus électrochimiques de notre cerveau, peuvent-ils exister et donner ce jeu en technicolor de la conscience, avec ses transports de joie, ses coups d'angoisse et autres moments de contentement doux alternant avec l'ennui ?... Voici peut-être une des dernières frontières des sciences. Elle nourrit les énergies intellectuelles de la communauté scientifique, les psychologues, philosophes, physiciens, informaticiens et aussi, de temps en temps, le Dalai Lama. Ceci amène certains à une hypothèse un peu folle. Peut-être, disent-ils, que l'esprit n'est pas limité aux cerveaux de quelques animaux. Peut-être est-il partout, présent dans chaque atome, des électrons et neutrinos jusqu'aux galaxies, sans exclure les choses de taille moyenne comme un verre de l'eau ou une plante en pot. Il n'aurait donc pas soudainement surgi quand quelques particules physiques sur une certaine planète se sont retrouvées, après évolution, dans la bonne configuration. Mais plutôt : il y a une conscience dans le cosmos depuis toujours. Cette doctrine que la substance du monde est fondamentalement esprit s'appelle panpsychisme. Il y a quelques décennies, le philosophe américain Thomas Nagel a montré que c'était une conséquence logique de quelques faits raisonnables. D'abord, nos cerveaux se composent de particules matérielles. Ensuite ces particules, dans certains arrangements, produisent des pensées et des sentiments subjectifs. Troisièmement, les propriétés physiques ne peuvent expliquer en elles-mêmes la subjectivité. (Comment l'ineffable expérience qui consiste à goûter une fraise pourrait-elle résulter en équations physiques ?) Nagel a donc théorisé que les propriétés d'un système complexe comme le cerveau ne surgissent pas simplement dans l'existence à partir de nulle part. Elles doivent dériver des propriétés des constituants de ce système. Ces constituants doivent par conséquent avoir eux-mêmes des propriétés subjectives - propriétés qui, dans les bonnes combinaisons, s'ajoutent jusqu'à donner nos pensées et sentiments intérieurs. Et comme les électrons, les protons et les neutrons constituant nos cerveaux ne sont pas différent de ceux qui constituent le reste du cosmos l'univers entier doit donc se composer d'infimes morceaux de conscience. Nagel n'est pas allé jusqu'au panpsychisme, mais aujourd'hui il peut constater quelque qui ressemble à une mode. Le philosophe australien David Chalmers et le physicien Roger Penrose d'Oxford ont parlé de lui. Dans le livre récent "La conscience et sa place dans la nature," le philosophe britannique Galen Strawson défend le panpsychisme contre de nombreuses critiques. Comment se pourrait-il, demandent les sceptiques, que des morceaux d'esprit poussière, avec des états mentaux vraisemblablement simples, se combinent-ils pour former le genres d'expériences mentales compliquées que nous autres humains vivons ? Après tout, quand on rassemble un groupe de personnes dans une salle, leurs différents esprits ne forment pas un esprit collectif simple. (Quoique!) Ensuite il y a le fait incommode qu'on ne peut pas scientifiquement tester cette affirmation qui, par exemple, dirait que la lune a un fonctionnement mental. (Et cela s'applique aussi aux gens - comment pourrez-vous démontrer que vos camarades de bureau de ne sont pas des robots sans connaissance, comme le commandant Data sur "Star Trek" ?) Il y a aussi cette idée un peu pernicieuse : si quelque chose comme un photon peut avoir des proto-émotions, proto-croyances et proto-désirs. Que pourrait alors être le contenu du désir d'un photon?.. Devenir un quark, ironise un anti panpsychisme. Il est plus facile de parodier le Panpsychisme que le réfuter. Mais même si cette recherche de compréhension de la conscience s'avère être un cul-de-sac, cela pourra éventuellement nous aider à nous élever au-dessus de nos pensées conventionnelles de la perspective cosmique. Nous sommes des êtres biologiques. Nous existons parce que nous sommes des autos réplications de nous-mêmes. Nous détectons et agissons sur l'information de notre environnement de sorte que nos réplications continuent. En tant que sous-produits, nous avons développé des cerveaux qui, nous voulons voir comme les choses les plus complexes de l'univers. Mais pensons à la matière brute. Prenez un rocher. Il ne semble pas faire grand-chose, en tout cas pour ce qui est d'animer nos perceptions. Mais à un nano niveau il se compose d'un nombre inimaginable d'atomes reliés par des liaisons chimiques flexibles, ondoyantes et s'agitant ensembles à des cadences que même notre ordinateur géant le plus rapide pourra envier pour encore longtemps. Et ils ne 'agitent pas au hasard. Les intestins du rocher "voient" l'univers entier au moyen de signaux gravitationnels et électromagnétiques qu'ils reçoivent sans interruption. Un tel système pourrait être regardé comme un processeur polyvalent d'informations, dont la dynamique intérieure pourrait refléter n'importe quelle séquence des états mentaux que nos cerveaux traversent. Et là où il y a de l'information, dit le panpsychisme, il y a de la conscience. Ainsi le slogan de David Chalmers, "l'expérience est information de l'intérieur; la physique est information de l'extérieur." Mais le rocher ne se démène pas lui-même comme résultat de toute cette "réflexion". Pourquoi le devrait-il ? Son existence, à la différence de la nôtre, ne dépend pas d'une lutte pour la survie et la reproduction. Il est indifférent à la perspective d'être pulvérisé. Etant poète on pourrait voir le rocher comme un être purement contemplatif. Et on pourrait dessiner cette morale que l'univers est, et a toujours été, saturé d'esprit. Même si nous autres snobs darwiniens reproducteurs retardataires sommes trop fermés pour le réaliser.

Auteur: Holt Jim

Info: Fortean Times 18 Nov. 2007

[ matière ] [ monade ] [ minéral ] [ métaphysique ] [ chiasme ]

 

Commentaires: 0

léviathan

Le calamar géant qui a fait trembler les mers

Il a fallu plusieurs siècles aux savants pour donner crédit aux récits des marins attaqués par un terrifiant monstre marin. Le calamar géant devint un personnage littéraire à part entière au travers d’œuvres telles que Les Travailleurs de la mer de Victor Hugo ou Vingt Mille Lieues sous les mers de Jules Verne.

Les chroniques et les sagas nordiques du Moyen-Âge décrivent un terrifiant monstre marin qui faisait la taille d’une île et se déplaçait dans les mers séparant la Norvège de l’Islande. Au XIIIe siècle, la saga islandaise Örvar-Oddr parle du "monstre le plus grand de la mer", capable d’avaler "des hommes, des bateaux et même des baleines". 

Cette intrigante apparition revient dans des textes ultérieurs, comme la chronique du Suédois Olaus Magnus, qui décrit au XVIe siècle de colossales créatures, capables de couler un bateau. Ce type de récits continue de circuler au XVIIIe siècle, époque à laquelle ce monstre commence à être connu sous le nom de kraken (littéralement “arbre déraciné”), un terme norvégien désignant une réalité pour le moins fantasque. Dans son Histoire naturelle de la Norvège (1752), Erik Ludvigsen Pontoppidan, évêque de Bergen, décrit en effet le kraken comme "une bête d’un mille et demi de long qui, si elle s’accroche au plus grand navire de guerre, le fait couler jusqu’au fond" et précise qu’il "vit dans les fonds marins, dont il ne remonte qu’une fois réchauffé par les feux de l’enfer".

Pourtant, ces descriptions ne sortaient pas totalement de l’imagination de leurs auteurs. Erik Ludvigsen Pontoppidan nota par exemple que "les décharges de l’animal troublaient l’eau" ; il pourrait donc s’agir d’un calamar géant. L’histoire du kraken est liée aux péripéties vécues dans des mers inconnues par des marins qui les relataient à leur retour. Si les marins nordiques s’étaient limités à l’Atlantique Nord, l’entrée dans la modernité a toutefois étendu le champ d’observation à l’ensemble du Pacifique.

Certains marins ont parlé d’un "diable rouge", un calamar qui attrapait et dévorait des naufragés ; d’autres ont évoqué des animaux marins insatiables, mesurant de 12 à 13 m de longueur. La succession de témoignages d’officiers de marine racontant avoir été confrontés à ces créatures déconcertait les scientifiques. Si le célèbre naturaliste suédois Carl von Linné, le père de la taxonomie moderne, inclut le kraken dans son Systema naturae (1735), la plupart des scientifiques n’étaient pas prêts à assumer l’existence du terrible monstre nordique. Le sort injuste que subit le Français Pierre Denys de Montfort illustre cette fermeture d’esprit. Dans son Histoire naturelle générale et particulière des mollusques, le naturaliste consigna en 1801 l’existence des animaux "[les plus grands] de la Nature quant à notre planète" : le "poulpe colossal"et le "poulpe kraken". Il se fondait sur des récits nordiques et des témoignages de marins contemporains, qu’il mit en relation avec un animal similaire cité par le naturaliste romain Pline l’Ancien. Il inclut dans son oeuvre une illustration représentant l’attaque d’un navire par un poulpe géant au large de l’Angola, qui devint l’image emblématique du kraken, mais suscita le rejet unanime de la communauté scientifique et le discrédita à vie.

Or, les témoignages sur l’existence de cet animal légendaire continuaient à se succéder. Le capitaine de baleinier Frank Bullen raconta ainsi qu’il avait sans l’ombre d’un doute assisté au combat d’un "énorme cachalot" avec un "gigantesque calamar". Selon sa description, les yeux de l’animal étaient situés à la base de ses tentacules, corroborant l’idée qu’il s’agissait plutôt d’un calamar (pieuvre et poulpe possédant des bras, mais pas de tentacules).

L’épisode qui marqua un tournant dans l’histoire des calamars géants se produisit en 1861, lorsque le navire français Alecton se trouva confronté à un céphalopode de 6 m de long au nord-est de Ténériffe, dans l’Atlantique. Son commandant, le capitaine de frégate Frédéric Bouyer, relata cette rencontre dans un rapport qu’il soumit à l’Académie des sciences : l’animal "semblait vouloir éviter le navire", mais le capitaine se disposa à le chasser en lui lançant des harpons et en lui tirant des coups de fusil. Il ordonna même de le "garrotter […] et de l’amener le long du bord", mais la créature finit par s’enfoncer dans les profondeurs. Frédéric Bouyer conserva ainsi un morceau du calamar, qu’il fit parvenir au prestigieux biologiste Pierre Flourens. 

Le calamar géant devint un personnage littéraire à part entière au travers d’œuvres telles que Les Travailleurs de la mer de Victor Hugo ou Vingt Mille Lieues sous les mers de Jules Verne. Toujours avide de nouvelles découvertes scientifiques, Jules Verne décrivit dans son roman l’épisode de l’Alecton et toutes les références mythiques et historiques à l’animal ; il y inclut aussi l’attaque d’un calamar contre le Nautilus lui-même. Les scientifiques analysèrent pour leur part les témoignages de marins et les restes de calamars récupérés en mer ou échoués, et conclurent qu’il s’agissait d’une espèce particulière, qu’ils baptisèrent Architeuthis dux.

Le mystère continue de planer autour de cet animal. On ne sait presque rien de son cycle de vie ni de ses habitudes, ni même s’il s’agit d’une seule espèce de calamar. Seules une équipe de scientifiques japonais et une chaîne nord-américaine ont pu le filmer de manière brève respectivement en 2006 et 2012. On sait malgré tout que les mâles mesurent environ 10 m de long et les femelles 14. Son oeil, le plus grand du règne animal, peut mesurer jusqu’à 30 cm de diamètre. 

L’habitat de cet animal se situe dans des profondeurs extrêmes, surtout dans l’océan Pacifique, mais aussi dans l’Atlantique. Il trouve par exemple refuge dans le canyon d’Avilés, à 5 000 m de profondeur au large des Asturies. Habitués à en rencontrer lorsqu’ils partent en mer, les pêcheurs locaux n’ont guère accordé d’importance à la controverse autour de son existence. Cet animal leur est si familier qu’ils lui ont même donné un nom : le peludín ("petit velu") ; un musée, qui lui est consacré, a par ailleurs ouvert ses portes en 1997 à Luarca, sur la côte des Asturies. 

Qu’on l’appelle peludín ou Architeuthis dux, on sait désormais avec certitude que cet animal existe, même s’il n’est pas aussi sauvage que la créature sortie de l’imagination nordique et des bestiaires de la Renaissance. Il est désormais si réel que seuls notre abandon de l’exploration sous- marine et l’absence de progrès de la science entravent encore son étude et la connaissance que nous en avons. D’ici là, le mystère qui l’entoure continuera d’alimenter des légions de cryptozoologues résolus à ressusciter le kraken, mais aussi les créatures les plus romantiques de nos vieilles légendes marines.

Auteur: Armendariz Xabier

Info: sur https://www.nationalgeographic.fr/, 6 juillet 2021

[ mythologie ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

multinationales

Les GAFAM et les NATU, nouveaux maîtres du monde de l’économie numérique ?

Encore des néo-acronymes anglo-saxons au menu aujourd’hui ! Levons le suspens tout de suite. GAFAM regroupe les initiales de Google, Apple, Facebook, Amazon, Microsoft et NATU ceux de Netflix, Air BNB, Telsa et Uber. En gros les dix plus grandes sociétés américaines de l’économie numérique. Deux acronymes pour une valorisation boursière comparable, tenez vous bien, au budget annuel de la France et un chiffre d’affaire annuel supérieur à celui du Danemark avec "seulement" 300 000 employés. Une sacré efficacité économique par employé, une croissance annuelle supérieur à celle de la Chine et surtout, une position dominante sur le marché qui commence à faire réfléchir.

Ces mastodontes de l’économie numérique représenteraient à eux seuls, près de 60% de nos usages numériques quotidiens. A l’heure où la France commence à prendre sérieusement conscience des enjeux de l’économie numérique, ces géants numériques ont une sacré longueur d’avance dans cette nouvelle révolution industrielle. Est-il trop tard ? Sans doute. Mais la France et l’Europe n’ont pas dit leur dernier mot.

- Qui sont vraiment ces GAFAM et NATU ? Je ne vais pas présenter tout le monde mais pour faire vite, disons qu’ils se partagent les grandes fonctions de l’économie numérique. Cette dernière qui était censée prolonger numériquement l’économie traditionnelle commence en réalité en train de la vampiriser sérieusement. Ce qu’on a appelé l’ubérisation de l’économie en référence à la société américaine Uber qui détruit progressivement le modèle de fonctionnement des taxis pour s’approprier d’énormes parts de marché. Google est un peu la matrice du système car il touche à tout : il fournit gratuitement à chacun la boîte à outils pour naviguer dans les mondes numériques et se finance en revendant les précieuses données qu’il récolte. Apple vend une partie du matériel nécessaire pour évoluer dans ce monde numérique, mais également de la musique et des films dont il a révolutionné la distribution. Facebook est le réseau social mondial qui permet à chacun de suivre la vie et les activités des autres.

Notons qu’avec Google, Facebook est devenu une régie publicitaire mondiale qui permet de cibler de façon chirurgicale des publicités avec une audience potentielle qui se chiffre en milliard d’individus. Amazon est en passe de devenir le distributeur mondial de l’économie numérique, menaçant des géants comme Wall Mart aux Etats Unis et peut-être Carrefour ou Auchan demain. - Et les nouveaux venus ? Netflix ? Air BNB ? Telsa ? Uber ? Netflix est la plus grosse plateforme de diffusion de films et séries. Il est également producteur et en ligne va sans doute faire exploser le modèle de la télévision. Air BNB est en train d’appliquer la même punition au secteur hôtelier en permettant à chacun de louer une chambre ou une maison d’un simple clic. Ou presque. Tesla révolutionne l’énergie avec la production de voiture et de batteries électriques d’une nouvelle génération et possède aussi SpaceX, un lanceur de fusée. Quand à Uber, il révolutionne la mobilité avec les taxis. Mais pas que…

Cela sous-entend que ces acteurs ne se cantonnent pas à leur "coeur de métier" comme on dit ? Tout à fait. Ils sont si puissant financièrement qu’ils investissent dans de très nombreux domaines. N’oublions pas que Youtube qui diffuse 4 milliard de vidéos par jour appartient à Google et que Facebook en revendique près de 3 milliards chaque jour. Les audiences des plus grandes chaines de télé se comptent plutôt en millions. Amazon est connu pour être une librairie en ligne mais vend aujourd’hui presque tout sur sa plateforme, même de la micro main d’oeuvre avec sa plateforme Mechanical Turk. Google investit dans presque tout, de la médecine prédictive aux satellites, en passant par les lunettes connectées et les voitures (Google car). Et quand les chauffeurs taxis s’excitent sur Uber pop, on oublie qu’Uber s’occupe aussi de la location de voitures et de la livraison de colis. Selon le cabinet d’études FaberNovel, les Gafam se positionnent directement ou non sur les 7 industries clefs de la transformation numérique : les télécoms et l’IT, la santé, la distribution, les énergies, les média et le divertissement, la finance ainsi que le voyage et les loisirs.

Cette concentration de pouvoir technologique et financier n’est-elle pas un risque pour l’économie ? On n’est pas loin en effet de situations de trusts, de monopoles voir de cartels. Ces géants disposent de nombreux atouts. Ils ont des réserves de cash gigantesques, ils ont une vision à 360 degrés de ce qui se passe aujourd’hui dans l’innovation, ils attirent les plus grands talents et se positionnent sur les nouveaux marchés issus de la transformation numérique comme l’internet des objets, la robotique, voitures, les drones…. Ils diversifient leurs activités et deviennent des prédateurs redoutables de l’économie traditionnelle.

Quelques chiffres donnent le vertige. Google contrôle 90 % de la recherche dans le monde. Apple 45 % du trafic Web issu des smartphones. Facebook 75 % des pages vues sur les réseaux sociaux aux Etats-Unis. Et si demain une pépite émerge, il est presqu’assuré que cette dernière tombera dans l’escarcelle d’un de ces géants. - Que peuvent faire les autres pays ? Il y a toujours 2 types d’attitudes devant un tel défi. Attaquer ou défendre. Ou les deux. Et sur plusieurs terrains. L’innovation et la recherche bien sûr, en essayant d’inventer non seulement des concurrents à ces mastodontes, mais aussi en explorant d’autres domaines prometteurs. L’Europe pré-technocratique avait réussi à faire des Airbus et des fusées Ariane. Elle hébergent encore de grands leaders industriels de la santé, du commerce et de la distribution. Mais ses modèles datent du 20ème siècle et clairement, le virage du numérique n’a pas été pris à temps. Inventeur du Minitel dans les années 80, la France aurait pu prendre une avance stratégique dans ce domaine mais cela aurait sans doute du se jouer au niveau européen.

Contrairement à la Chine (avec Baidu et Alibaba) ou à la Russie (Yandex, Rutube), l’Europe n’a malheureusement rien lancé de significatif dans ce domaine. - Justement n’est-ce pas au niveau continental que des leviers existent ? Certainement. S’il est difficile de mettre en place des consortium numériques à l’échelle européenne, par exemple pour concurrencer les GAFAM dans leurs fonctions stratégiques, des leviers législatifs, juridiques et fiscaux sont en revanche déjà utilisés pour attaquer les géants américains qui sont rarement respectueux des règles locales. Amazon, qui concentrait ses revenus au Luxembourg va devoir payer des impôts dans chaque pays dans lequel il évolue. Google a été condamné pour avoir favorisé ses propres services de shopping a du se plier aux exigences de la CNIL française pour mettre en place un droit à l’oubli. Mais cela sonne comme des gouttes d’eau dans l’océan et surtout cela concerne essentiellement des mesures défensives, comme si la bataille était déjà perdue. Internet,

Auteur: Internet

Info: http://www.econum.fr/gafa, 20 septembre 2015

[ transnationales ] [ puissance ] [ domination ] [ pouvoirs comprador ]

 

Commentaires: 0

réseaux sociaux

L’Américaine Sarah T. Roberts a écrit, après huit ans de recherches, "Behind The Screen" (Yale university press), un livre sur le travail des modérateurs. Elle en a rencontré des dizaines, chargés de nettoyer les grandes plates-formes (Facebook, YouTube, etc.) des pires contenus, et entourés d’une culture du secret.

C’est un métier dont on ne connaît pas encore bien les contours, et qui est pourtant au coeur du fonctionnement des grandes plates-formes du Web : les modérateurs sont chargés de les débarrasser des contenus postés par les utilisateurs (photos, vidéos, commentaires, etc.) qu’elles interdisent. Répartis dans des open spaces aux quatre coins du monde, gérés par des sous-traitants, ces milliers de petites mains examinent, tout au long de leur journée de travail, les pires contenus qui circulent sur Internet, et décident de leur sort.

Nous l’avons interviewée lors de son passage à Paris pour participer à un cycle de conférences sur "le côté obscur du travail", organisé à la Gaîté-Lyrique, à Paris.

(MT) - Les géants du Web (Facebook, YouTube, Twitter, etc.) sont très réticents à parler de la façon dont ils modèrent les contenus. Pourquoi ?

- Quand ces entreprises ont été lancées il y a une quinzaine d’années, la dernière chose qu’elles voulaient, c’était d’avoir à prendre des décisions sur le contenu. Elles se concentraient sur les technologies, et se présentaient auprès des pouvoirs publics américains comme faisant partie de la catégorie "fournisseurs d’accès à Internet". Cela leur a permis d’affirmer que le contenu n’était pas leur coeur de métier, et d’avancer sans qu’on ne leur demande de rendre des comptes.

Ce positionnement leur a permis de grandir. Il fallait donc que les décisions que prenaient ces entreprises du Web sur le contenu restent secrètes. Elles vendaient cette idée aux utilisateurs qu’il n’y avait aucune intervention, que vous pouviez vous exprimer sur YouTube ou Facebook sans aucune barrière. Elles ne voulaient pas qu’il y ait un astérisque, elles ne voulaient pas entrer dans les détails. Il y a pourtant eu, dès leurs débuts, des contenus supprimés.

(MT) - Dans votre livre, vous allez jusqu’à dire que ces entreprises "effacent les traces humaines" de la modération. C’est une formule très forte…

-Ces entreprises pensent profondément que les solutions informatiques sont meilleures que les autres, et il y a cette idée chez elles qu’il y aura bientôt une technologie assez forte pour remplacer ces travailleurs. Elles semblent dire "ne nous habituons pas trop à l’idée qu’il y a des humains, c’est juste temporaire".

De plus, si les utilisateurs savaient qu’il y avait des humains impliqués, ils demanderaient des explications. Et ces entreprises ne voulaient pas être responsables de ces décisions. Elles ont donc choisi de rendre ce processus invisible et croisé les doigts pour que les gens ne posent pas trop de questions.

(MT) - La modération est un travail difficile. Quels sont les risques auxquels sont confrontés ces travailleurs ?
- Il y en a plusieurs, à commencer par les risques psychologiques. Les modérateurs à qui j’ai parlé me disaient souvent : "Je suis capable de faire ce travail, des gens sont partis au bout de deux semaines. Mais moi, je suis fort." Et quelques minutes plus tard, ils me disaient "je buvais beaucoup" ou "je ne veux plus sortir avec des amis, car on parle toujours de travail, et je ne veux pas en parler, et d’ailleurs je n’en ai pas le droit".

Quand des gens me disent qu’ils ne peuvent pas cesser de penser à une image ou une vidéo qu’ils ont vue au travail, c’est inquiétant. Une femme, qui était modératrice il y a une quinzaine d’années pour Myspace, m’a dit qu’elle n’aimait pas rencontrer de nouvelles personnes et leur serrer la main. "Je sais ce que les gens font, et ils sont ignobles. Je n’ai plus confiance en qui que ce soit."

Il y a aussi d’autres choses difficiles, qui paraissent moins évidentes. Vous devez être très cultivé pour être un bon modérateur, beaucoup ont fait des études de littérature, d’économie, d’histoire, parfois dans des universités prestigieuses. Mais c’est considéré comme un travail de bas niveau, assez mal payé.

(MT) - Comment les conditions de travail des modérateurs ont-elles évolué ?
- C’est difficile à dire, ce sont souvent des conditions de call centers : d’un point de vue purement matériel, c’est relativement confortable. Aux Philippines, des gens travaillent dans des gratte-ciel avec l’air conditionné, ce qui est important là-bas.

(MT) - Mais... En quoi cela change quelque chose à ce qu’ils voient tous les jours ?
- Certaines entreprises ont mis à disposition des psychologues. Mais les employés sont méfiants : quand le psychologue est payé par votre employeur, cela crée une relation compliquée, ça peut être difficile pour le travailleur de s’ouvrir sincèrement.

(MT) - Mais si ces entreprises ne mettaient pas de psychologues à disposition, on le leur reprocherait…
- C’est vrai. Mais est-ce vraiment efficace ou est-ce juste pour faire joli ? Un modérateur m’a dit : "Le problème, c’est que si je me lève pour aller parler au psychologue, mon manager et mes collègues me voient tous me lever et comprennent que j’ai un problème. Je ne veux pas qu’ils le sachent." Et puis, ce sont des solutions de court terme.

(MT) - Que devraient faire ces entreprises pour assurer le bien-être de leurs salariés ?
- Pour commencer, ils pourraient les payer davantage. Ensuite, le fait que leur travail ne soit pas reconnu est très dur pour eux, tout comme les accords de confidentialité. Tout cela fait qu’ils ont peur de parler de leur travail, qu’ils ne soient pas en lien avec les autres. Ils ne savent même pas qui sont les autres modérateurs. Ce sont des choses qui pourraient facilement changer. Et sur la psychologie, il faudrait étudier les effets de ce travail sur le long terme. Il n’existe aucune étude de ce type, à ma connaissance.

(MT) - Pourrait-on se passer de modérateurs ? A quoi ressemblerait Internet sans eux ?
- Au forum 4chan [connu pour sa modération très faible, et la virulence de certains de ses membres anonymes] ? Ce serait pire ! La plupart des gens ne veulent pas de ça, et doivent donc avoir à faire à des modérateurs. Or les internautes passent beaucoup de temps sur les grandes plates-formes mainstream, financées par la publicité, et le fait qu’ils ne comprennent pas comment ces espaces sont modérés est problématique, car cela reflète des valeurs.

L’idée d’un Internet sans modération n’a pas beaucoup existé. Certes, j’ai donné l’exemple de 4chan. Mais à un moment donné il y a eu une décision, à 4chan, que l’approche serait de tout laisser passer. C’est une posture idéologique là aussi. Et il est important de noter que c’est ce que veulent certaines personnes.

(MT) - Vous écrivez que ce sujet de recherche représente "le travail d’une vie". Quels aspects de la modération vous intéressent le plus pour la suite ?
- C’est le travail d’une vie parce que cela change tout le temps : Facebook change ses règles toutes les deux semaines ! Et si aujourd’hui on a 100 000 personnes qui travaillent comme modérateurs, où en sera-t-on dans deux, cinq ou dix ans ?

Je m’intéresse aussi beaucoup à la question de la régulation de ces entreprises. Ainsi qu’à la façon dont les Américains ont adopté depuis quinze ans ces technologies. Nous approchons de l’élection présidentielle de 2020, et ces plates-formes sont très impliquées, on a eu des déclarations intéressantes de Facebook sur la véracité des informations diffusées… Tout cela est d’une certaine manière lié à la question de la modération. Ces entreprises sont désormais considérées comme responsables, alors qu’elles n’ont jamais voulu l’être ! Devoir gérer ça est leur pire cauchemar, et elles doivent désormais le faire tout le temps.

Auteur: Tual Morgane

Info: Propos recueillis par MT, 11 janvier 2020, www.lemonde.fr. Sujet : Sarah T. Roberts : "Les géants du Web ont choisi de rendre le processus de modération invisible"

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel