Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 100
Temps de recherche: 0.0949s

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

artificialisation

L’élevage paysan est menacé parce que les lobbies financiers, ceux de l’agriculture productiviste et même une partie du lobby de la viande industrielle ont décidé de remplacer la vraie viande, plus assez rentable à leurs yeux, par de la fausse viande, du faux lait, du faux fromage, des faux œufs, beaucoup plus rentables.

Le système industriel de production de protéines animales est un échec financier comme le dénonce depuis trois décennies Via Campesina: les épizooties coûtent de 18 à 50 % du chiffre d’affaires, la Banque mondiale chiffre le coût de la grippe aviaire à 1250 milliards de dollars… mais pas question pour ces lobbies de laisser se développer l’élevage paysan. Leur réponse est simple : toujours plus d’industrialisation grâce aux biotech.

Ces lobbies veulent gagner la bataille de l’opinion publique car ils se souviennent de l’échec de la viande clonée qu’ils avaient précédemment voulu imposer, c’est pourquoi ils financent mondialement des groupes animalistes. L214 a reçu ainsi plus de 1,3 million de dollars d’une organisation états-unienne qui finance, par ailleurs le secteur de la fausse viande et notamment celui des faux œufs. Chacun appréciera à sa valeur qu’une organisation fondée par deux militants anarchistes soient subventionnée par le grand capital international et qu’elle se retrouve aux côtés des lobby financiers, de la malbouffe et de ce qu’il y a de pire dans l’industrie de la viande contre l’Internationale Via Campesina… Ce généreux donateur de L214, prénommé Open Philanthropy Project (OP2), a été créé par le fonds d’investissement de Dustin Moskovitz, co-fondateur de Facebook et son épouse Cari Tuna, journaliste au Wall Street Journal. Ce généraux donateur travaille aussi avec le Fonds d’investissement de Google, et avec des milliardaires comme Bill Gates, William Hewlett (Packard), etc…

Le secteur de la fausse viande n’est pas séparable des autres biotechnologies alimentaires, comme les OGM 2eet 3egénérations, comme les imprimantes 3D alimentaires, qui fonctionnent comme une imprimante classique sauf qu’elles utilisent différents ingrédients sous forme de pâte dont des hydro-colloïdes, une substance gélatineuse chimique que l’on peut structurer, aromatiser, coloriser à volonté.. La première imprimante 3D végane a été lancée, en avril 2019, en Israël, par la société Jet Eat, dont le PDG Eshchar Ben Shitrit est un personnage central de l’industrie alimentaire sous forme d’impression 3D ….

Les grandes firmes disposent déjà de tout un vocabulaire marketing pour imposer leurs productions, elles parlent de "viande propre", de "viande éthique", de "viande cultivée", une façon de sous-entendre que la vraie viande, le vrai fromage, le vrai lait, les vrais œufs ne seraient ni propres, ni éthiques, ni même, peut être, ne relèveraient d’une quelconque culture…

La fabrication industrielle de faux produits carnés comprend une production dite a-cellulaire et une autre dite cellulaire. La production acellulaire est une technique de biologie synthétique qui utilise des micro-organismes comme des bactéries, des levures, pour synthétiser des protéines et molécules. Le gène codant d’une protéine donnée est alors clonée dans un micro-organisme qui est ensuite en mesure de le produire. Pour obtenir des protéines de lait ou de blanc d’œuf, on cultive des micro-organismes génétiquement modifiés (des bactéries, des levures et autres champignons) et on mélange ensuite ces protéines à d’autres substances végétales.

La production cellulaire consiste à reconstituer des tissus animaux en mettant en culture des cellules prélevées sur l’animal. Elle utilise pour cela des bioréacteurs sur le modèle de ceux utilisés en médecine pour fabriquer de la fausse peau. La culture des cellules se fait avec du sérum de fœtus de veau. Certaines start-up, financées par la NASA, ont pour objectif de remplacer ce sérum par des extraits de champignon… Cette fausse viande cellulaire suppose toujours un animal donneur de cellules sous forme de biopsie (sous anesthésie locale) mais un seul échantillon pourrait permettre de produire jusqu’à 20 000 tonnes de viande. Mosa Meat explique que 150 vaches suffiraient pour satisfaire la demande actuelle mondiale de viande. Cette firme néerlandaise avait précédemment inventé le premier hamburger à base de cellules (un simple collage de 20 000 fibres). Son coût de 325 000 euros avait été financé par Sergey Brin, co-fondateur de Google, Patron de la firme Alphabet inc, une émanation de Google dénoncée pour être un faux nez permettant d’échapper à l’impôt via les paradis fiscaux, il dirige aussi Google X chargé de développer la voiture automatique Google et un service mondial de livraison par drone. Il fallait donc absolument dans l’intérêt de Google que la viande soit accusée de tous les maux plutôt que les transports. Sergey Brin est non seulement la treizième fortune mondiale, mais l'une des vedettes du Forum économique de Davos dont les membres, à peine descendus de leur jet privé, ordonnait en février 2019, au petit peuple de consommer moins de viande pour… sauver la planète (prétendent-ils).

Auteur: Ariès Paul

Info: https://blogs.mediapart.fr/paul-aries/blog/230419/futurs-deputes-europeens-resisterez-vous-au-lobby-de-la-viande-de-laboratoire?

[ apprentis sorciers ] [ culpabilité ] [ schizophrénie ] [ rendement économique ] [ malbouffe ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Quand l'ordinateur façonne sa propre compréhension du monde
Des ordinateurs capables de regrouper, à partir d'une seule photo de vous, toutes les informations que contient votre empreinte numérique... Des machines aptes à auto générer des résumés à partir de textes complexes, ou encore en mesure de détecter un problème de santé à partir de l'imagerie médicale sans l'aide d'un médecin...
Le mariage des deux sciences que sont l'intelligence artificielle et le traitement des métadonnées est consommé. Et, si leur progéniture technologique est déjà parmi nous sous différentes formes, on prévoit que leurs futurs rejetons révolutionneront encore bien davantage notre quotidien.
C'est ce que prédit notamment Yoshua Bengio, professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal et directeur de l'Institut des algorithmes d'apprentissage de Montréal. Cet organisme compte près de 70 chercheurs, ce qui en fait le plus grand groupe de recherche en apprentissage profond (deep learning) du monde dont les activités sont concentrées en un seul endroit.
Les conséquences des avancées scientifiques actuelles et à venir sont encore difficiles à imaginer, mais l'explosion du volume de données numériques à traiter pose tout un défi : selon une estimation d'IBM, les échanges de données sur Internet devraient dépasser le zettaoctet, soit un milliard de fois la capacité annuelle d'un disque domestique...
Comment l'intelligence artificielle - IA pour les intimes - permettra-t-elle de traiter ces informations et de les utiliser à bon escient ?
Avant de répondre à la question, clarifions d'abord ce qu'on entend par "intelligence". Le célèbre psychologue suisse Jean Piaget en avait résumé une définition très imagée : "L'intelligence n'est pas ce qu'on sait, mais ce qu'on fait quand on ne sait pas." Plusieurs décennies plus tard, Yoshua Bengio applique cette définition à l'intelligence artificielle.
Apprentissage profond
Inspiré par les théories connexionnistes, Yoshua Bengio ainsi que les chercheurs Geoffrey Hinton et Yann LeCun ont donné naissance, il y a 10 ans, aux algorithmes d'apprentissage profond. Il s'agit de réseaux de neurones artificiels dont le nombre de couches plus élevé permet de représenter des concepts plus abstraits et donc d'apprendre mieux. Chaque couche se construit sur la précédente et combine les concepts plus simples captés à la couche précédente.
Par exemple, au cours des dernières années, différents chercheurs ont tenté d'améliorer la capacité de l'ordinateur à traiter le langage naturel, selon le concept de représentation distribuée : on associe chaque mot à une représentation, puis on utilise les neurones pour obtenir la probabilité du prochain mot.
"On crée de la sorte des relations sémantiques, explique M. Bengio. Si l'on dit "chien" dans une phrase, il est fort possible que cette phrase demeure correcte même si l'on remplace "chien" par "chat", puisque ces mots partagent de nombreux attributs sémantiques : l'ordinateur découvre des attributs communs et, par une forme de déduction, il devient capable d'opérer des transformations successives qui permettent par exemple à l'ordinateur de traduire d'une langue vers une autre."
De sorte que, là où il fallait auparavant plusieurs êtres humains pour montrer à l'ordinateur comment acquérir des connaissances, celui-ci est de plus en plus apte à façonner lui-même sa propre compréhension du monde. C'est là le propre de l'apprentissage profond.
Quelques applications actuelles
Combinée avec les avancées en recherche opérationnelle et les métadonnées, l'intelligence artificielle est déjà présente dans notre vie sous diverses formes. Il n'y a qu'à penser à la façon dont on peut désormais interagir verbalement avec son téléphone portable pour lui faire accomplir une tâche, comme lui demander d'avertir notre conjoint qu'on sera en retard, lui faire ajouter un rendez-vous à notre agenda ou, encore, lui demander de nous suggérer un restaurant italien à proximité de l'endroit où l'on se trouve... Il peut même vous indiquer qu'il est temps de partir pour l'aéroport en raison de la circulation automobile difficile du moment pour peu que vous lui ayez indiqué l'heure de votre vol !
"Ce n'est pas encore une conversation soutenue avec l'ordinateur, mais c'est un début et les recherches se poursuivent", indique de son côté Guy Lapalme, professeur et chercheur au laboratoire de Recherche appliquée en linguistique informatique de l'UdeM, spécialisé entre autres en génération interactive du langage et en outils d'aide à la traduction.
Et maintenant la recherche porte sur la combinaison langage et image. "Après un entraînement au cours duquel l'ordinateur a appris en visionnant plus de 80 000 photos associées chacune à cinq phrases descriptives, il est à présent en mesure de mettre lui-même par écrit ce que l'image évoque; il y a deux ans à peine, je n'aurais pas cru qu'il était possible d'en arriver là", mentionne M. Bengio, qui collabore régulièrement avec le Massachusetts Institute of Technology, Facebook ou Google.
"Nous avons fait de grands progrès récemment, mais nous sommes loin, très loin, de reproduire l'intelligence humaine, rassure l'éminent chercheur. Je dirais que nous avons peut-être atteint le degré d'intelligence d'une grenouille ou d'un insecte, et encore, avec plusieurs imperfections..."

Auteur: Internet

Info: 9 oct. 2015

[ Internet ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

orient-occident

- Klaus Schwab, le patron de Davos, a parlé d’un tsunami technologique entre la robotique, l’intelligence artificielle, les imprimantes 3D, les biotechnologies et l’hybridation de l’homme et de la machine, parce que tout cela bouscule nos vies et nos frontières. Il y a des disruptions partout. Par exemple, Uber est la plus grande société de taxis du monde, mais ils n’ont pas un seul taxi… AirBnb est la plus grande société hôtelière du monde, mais ils n’ont pas un seul hôtel… Amazon est la plus grande librairie du monde, mais ils n’ont pas une seule librairie… Toutes ces technologies entraînent des disruptions assez compliquées à saisir.

- C’est comme pour l’imprimerie ou l’électricité, il y a un certain nombre de choses qui se produisent et qui accélèrent les phénomènes. En 1960, General Motors ou General Electric étaient des sociétés dominantes qui duraient 60 ans. En 1980, on a vu des sociétés, comme IBM, qui ont été leaders pendant 35 ans. Mais aujourd’hui, les nouvelles entreprises comme Apple, Microsoft, Google ou Amazon vont durer une quinzaine d’années. Il y a une accélération et cela ne va faire qu’empirer. On parle beaucoup du match entre l’Amérique et la Chine. J’ai assisté à la montée du Japon, qui a fait un effort surhumain après la guerre. Après, comme ils ne faisaient plus d’enfants, les jeunes sont devenus des fils à papa et l’innovation a disparu. Dans les grandes villes chinoises, c’est la même chose. Les appartements sont trop petits et on risque de retrouver le même phénomène qu’au Japon, c’est-à-dire une diminution de l’innovation. En Amérique, ils savent rebondir, donc je ne pense pas que l’Amérique soit fichue. Quand on lit un certain nombre d’experts, on pourrait penser que la Chine pourrait prendre le relais, mais je ne crois pas que les choses se passeront ainsi. Lorsque la Russie s’est cassé la gueule, les Américains sont arrivés avec les grandes entreprises de consulting, comme McKinsey, et ils ont fait faire des bêtises aux Russes. Les Chinois ont beaucoup médité là-dessus pour ne pas faire la même chose. Ils ont essayé d’inventer un nouveau modèle, qui est beaucoup basé sur la technologie, avec de nombreux défauts quand même. Il faut savoir qu’il y a 900 millions de personnes qui sont sorties de la pauvreté en Chine, mais il y a encore 600 millions de gens qui vivent très pauvrement. C’est pour cette raison que le modèle capitaliste occidental ne convient pas bien à la Chine. On assiste donc à un basculement de l’Occident vers l’Orient, puisque les grandes démographies sont en Orient, mais cela entraîne en même temps une précarité des classes moyennes de l’Ancien Monde riche. L’Europe a dominé 70 % de la planète pendant une époque et, quand les Américains ont pris le relais des Anglais, ils ont automatiquement voulu faire du consumérisme en créant leur village mondial pour vendre leurs produits et amener la démocratie en même temps. Mais la démocratie, cela ne fonctionne pas dans des pays comme la Chine ou l’Inde. Par le biais du consumérisme, les gens ont accédé aux nouvelles technologies, avec toutes les menaces que cela entraîne, mais les promesses étaient tout à fait agréables. On ne se rend pas compte que l’on transmet toutes nos données. Donc, nous sommes fliqués. Les Chinois ont commencé et maintenant les gouvernements occidentaux trouvent que ce n’est pas si mal. Il y a un vrai risque pour nos démocraties.

- L’Europe aurait intérêt à s’écarter davantage de l’Amérique pour réinventer un modèle qui lui soit propre

- Malheureusement, c’est ce qui est en train d’arriver et on ne peut rien faire contre cela. Il y a trois cerveaux dans chaque individu : le néocortex, le limbique et le reptilien. Le néocortex, c’est ce qui est raisonnable. Le limbique, c’est l’émotion. Et le reptilien, c’est le repli sur soi. On voit tous les phénomènes populistes dans de nombreux pays et c’est le repli sur soi reptilien. Quand on ajoute cela à l’émotion, on évoque la nécessité de restaurer la Grande Russie quand on parle au peuple russe, on évoque la grande Chine, et les Américains rêvent d’une grande Amérique… Le néocortex, c’est la raison, et c’est toujours le moins fort. C’est pour cette raison que j’écris que dans quelques décennies, les hommes ne pourront plus comprendre notre psychologie. C’est pour cette raison aussi que les régimes forts vont plus vite que les démocraties. Churchill disait que la démocratie est le moins mauvais des systèmes, mais si c’est un régime fort, on ne discute pas, donc cela va plus vite. L’Europe s’est endormie, on ne veut plus faire la guerre, on est désarmé et, quand il arrive une histoire comme l’Ukraine, on est incapable de faire ce qu’il faut. Maintenant, le match entre les États-Unis et la Chine remet notre modèle en question. On pensait que le modèle démocratique allait s’imposer après la chute du Mur de Berlin. Il y a eu une prolifération des démocraties et, aujourd’hui, on s’aperçoit que l’on est en train de reculer sur ce point. Au fond, l’Europe aurait intérêt à s’écarter davantage de l’Amérique pour réinventer un modèle qui lui soit propre.

Auteur: Salmon Robert

Info: interviewé sur https://www.kernews.com/

[ neuroscience ] [ géopolitique ] [ futurologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

omniprésent sapiens

(FLP) quels sont les exemples, s'ils existent, d'une espèce qui, comme les humains, s'est adaptée à tous les biotopes ?

(Gemini) -  il n'existe pas d'espèce animale qui ait réussi à s'adapter à tous les biotopes de la planète avec le même niveau de succès que les humains.

Cependant, plusieurs espèces animales présentent une remarquable capacité d'adaptation et peuvent coloniser une large variété d'environnements comme

- le rat brun (Rattus norvegicus) rongeur cosmopolite qui se rencontre dans presque tous les continents et habitats, des villes aux déserts en passant par les forêts. Son succès repose sur sa grande intelligence, sa capacité à s'adapter à différents régimes alimentaires et sa reproduction rapide.

- Le faucon pèlerin (Falco peregrinus),  rapace e plus rapide du monde qu'on trouve sur tous les continents sauf l'Antarctique. Sa rapidité et sa vue perçante lui permettent de capturer des proies dans des environnements très différents.

- La mouette rieuse (Larus ridibundus), oiseau marin qui est présent sur toutes les côtes du monde et qui s'adapte facilement aux milieux artificiels comme les ports et les décharges publiques. Son opportunisme alimentaire lui permet de se nourrir de déchets et d'autres sources de nourriture facilement accessibles.

- L'ours brun, dans l'hémisphère nord...

Ces exemples illustrent la capacité remarquable de certaines espèces animales à s'adapter à des environnements très différents. Cependant, il est important de noter que aucune d'entre elles n'a le même niveau de succès d'adaptation que les humains, qui ont réussi à coloniser et à modifier presque tous les biotopes de la planète.

(FLP) Pas même les fourmis, d'autres petits animaux ou certains insectes ?

(Gemini) Il est vrai que certaines petites espèces animales, comme les fourmis, les cafards et certains insectes, présentent une grande capacité d'adaptation et peuvent coloniser une large variété d'environnements.

- Les fourmis, par exemple, sont présentes sur presque tous les continents et dans de nombreux habitats, des forêts tropicales aux déserts en passant par les villes. Elles ont développé des structures sociales complexes, des techniques de communication sophistiquées et la capacité à exploiter une grande variété de ressources alimentaires. 

- Les cafards sont également connus pour leur résilience et leur capacité à s'adapter à des environnements difficiles. Ils peuvent survivre dans des conditions de manque de nourriture et d'eau et sont résistants à de nombreux pesticides.

- Certains insectes, comme les mouches et les moustiques, ont également une grande capacité d'adaptation et peuvent coloniser des environnements très variés. Ils sont souvent vecteurs de maladies et peuvent poser des problèmes de santé publique.

Cependant même ces petites espèces n'ont pas le même niveau de succès d'adaptation que les humains.

(FLP) - Et le tardigrade ?

(GEMINI) Effectivement, le tardigrade, aussi appelé ours d'eau, est un animal microscopique connu pour sa résistance extrême aux conditions extrêmes. Il peut survivre à des températures allant de -459 degrés Celsius à 151 degrés Celsius, à des radiations intenses, à des pressions immenses et même au vide spatial.

On trouve cet extrémophile, (organisme capable de vivre dans des environnements que la plupart des autres espèces ne pourraient pas supporter) se trouve dans presque tous les milieux aquatiques et terrestres, y compris dans les sources chaudes, les glaciers et les mousses.

Cependant, il est important de noter que le tardigrade n'a pas le même niveau de succès d'adaptation que les humains car il ne sont pas capables, contrairement aux humains,  de coloniser et de modifier tous les biotopes de la planète. Ils sont limités à des environnements extrêmes où peu d'autres espèces peuvent survivre.Car les tardigrades n'ont pas les mêmes capacités cognitives que sapiens. Ils ne sont pas capables de résoudre des problèmes complexes, d'apprendre de nouvelles choses ou de développer des technologies.

(FLP) - Au niveau bactériel il y a ou il y a eu une complète diffusion sur terre, non ?

(Gemini)  Oui, c'est exact. Les bactéries sont les organismes les plus répandus sur Terre. On les trouve dans presque tous les environnements, des sources chaudes aux glaciers, en passant par le corps humain. Leur capacité d'adaptation exceptionnelle leur a permis de coloniser l'ensemble de la planète.

(FLP ) - Et les humains, on peut dire la même chose ?

(Gemini) - Non, pas du tout. Les humains sont certes présents sur tous les continents, mais leur répartition est beaucoup plus inégale que celle des bactéries. Il existe des zones densément peuplées, comme les grandes villes d'Asie, et d'autres zones très peu peuplées, comme les régions polaires. De plus, les humains ont un impact important sur leur environnement, ce qui peut limiter leur diffusion dans certains endroits.

(FLP) - Donc, on ne peut pas vraiment parler d'une diffusion complète des humains sur Terre ?

(Gemini) - Non, en effet. L'utilisation du terme "diffusion" n'est pas tout à fait appropriée dans le cas des humains. Il serait plus juste de parler de dispersion ou de colonisation. Les humains se sont dispersés à travers le monde au cours de l'histoire, mais leur répartition n'est pas homogène et ils continuent de modifier leur environnement de manière significative.

(FLP) - Donc, il y a une grande différence entre la diffusion des bactéries et celle des humains ?

Gemini - oui, les bactéries sont des organismes microscopiques qui se dispersent naturellement par le vent, l'eau et les animaux. Les humains, en revanche, sont des organismes beaucoup plus complexes qui ont développé des technologies et des modes de vie qui leur permettent de contrôler leur dispersion et de modifier leur environnement.



 

Auteur: Google Bard chatbot

Info: 19 mai 2024

[ ubiquité humaine ] [ homme-animal ] [ dialogue homme-machine ] [ évolution du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

élément sémantique structurant

(FLP) - Bonjour, peux-tu m'expliquer la notion de "point de capiton" de Jacques Lacan ?

(Gemini Bard) - Le point de capiton est un concept central dans la théorie psychanalytique de Jacques Lacan. Il s'agit d'un élément crucial qui permet de stabiliser le sens et de donner une cohérence au discours. Emprunté au vocabulaire du matelassage, le terme "point de capiton" désigne le point où l'aiguille du matelassier s'enfonce dans le tissu et en ressort, laissant une marque durable. Lacan utilise cette métaphore pour illustrer la manière dont certains éléments du discours s'accrochent et fixent le sens, le stabilisent et lui donnent une structure.

Le point de capiton n'est pas un élément statique, mais plutôt un point de fuite, un lieu d'articulation où le sens se déploie et se reconfigure. Il peut s'agir d'un mot, d'une phrase, d'un objet, d'un événement, ou même d'une croyance ou d'un idéal.

Le point de capiton joue un rôle important dans la construction du sujet. Il permet au sujet de s'identifier à un certain discours, de se positionner dans le monde et de donner du sens à ses expériences.

Cependant, le point de capiton est également fragile et peut être remis en question. Dans la psychose, par exemple, le point de capiton peut s'effondrer, ce qui entraîne une fragmentation du discours et une perte de sens.

Voici quelques points clés à retenir à propos du point de capiton :

Stabilisation du sens: Le point de capiton permet de stabiliser le sens et de donner une cohérence au discours.

Point de fuite: Le point de capiton n'est pas un élément statique, mais plutôt un point de fuite où le sens se déploie et se reconfigure.

Construction du sujet: Le point de capiton joue un rôle important dans la construction du sujet.

Fragilité: Le point de capiton est également fragile et peut être remis en question.

Le point de capiton est un concept complexe et multidimensionnel qui a fait l'objet de nombreuses interprétations et débats au sein de la psychanalyse lacanienne.

(FLP) - Merci. J'y vois une correspondance, voire même une analogie avec le terme de saillance utilisé en PNL et plus largement en linguistique. Non ?

(Gemini Bard) Effectivement, il existe une certaine correspondance entre le concept de point de capiton de Lacan et celui de saillance en PNL et en linguistique.

La saillance désigne la qualité de ce qui est saillant, c'est-à-dire proéminent, marquant, qui attire l'attention. Elle se réfère aux éléments du discours qui se distinguent du reste et qui ont tendance à avoir une plus grande influence sur la compréhension et l'interprétation de ce discours.

Comme le point de capiton, la saillance joue un rôle important dans la structuration du sens. En effet, les éléments saillants permettent de hiérarchiser les informations, de créer des liens entre les différentes parties du discours et de guider l'attention de l'auditeur.

Voici quelques points de convergence entre les deux concepts :

Stabilisation du sens: Le point de capiton et la saillance contribuent tous deux à stabiliser le sens et à donner une cohérence au discours.

Attraction de l'attention: Le point de capiton et la saillance attirent tous deux l'attention de l'auditeur ou du lecteur.

Organisation du discours: Le point de capiton et la saillance contribuent tous deux à l'organisation du discours et à la création de liens entre les différentes parties du discours.

Cependant, il existe également des différences entre les deux concepts :

- Nature: Le point de capiton est un concept plus psychanalytique, tandis que la saillance est un concept plus linguistique et cognitif.

- Focalisé: Le point de capiton est généralement focalisé sur un élément unique, tandis que la saillance peut porter sur plusieurs éléments du discours.

- Inconscient: Le point de capiton est souvent inconscient, tandis que la saillance peut être consciente ou inconsciente.

En conclusion, le point de capiton et la saillance sont deux concepts distincts mais qui partagent certaines similitudes. Ils permettent tous deux de comprendre comment le sens est construit et structuré dans le discours.

(FLP) - Merci. Peux-tu donner un exemple de point de capiton unique ?

(Gemini Bard) - Exemple de point de capiton unique

Prenons l'exemple de la phrase suivante : "La peur de la mort me paralyse."

Dans cette phrase, le mot "mort" pourrait être considéré comme un point de capiton. En effet, ce mot :

Attire l'attention: Il est le mot le plus chargé d'émotion de la phrase et il est ce qui motive la peur du sujet.

Structure le sens: La phrase tourne autour de la peur de la mort et tous les autres éléments de la phrase sont liés à cette peur.

Est inconscient: La peur de la mort est souvent un phénomène inconscient qui n'est pas directement exprimé par le sujet.

Cependant, il est important de noter que le point de capiton n'est pas toujours un élément unique et identifiable. Il peut s'agir d'une combinaison de plusieurs éléments du discours qui, ensemble, contribuent à stabiliser le sens et à donner une cohérence au discours.

Par exemple, dans la phrase "Je suis amoureux de Marie", le point de capiton pourrait être la combinaison des mots "amoureux" et "Marie". Ces deux mots sont essentiels pour comprendre le sens de la phrase et ils sont étroitement liés l'un à l'autre.

En fin de compte, l'identification du point de capiton est une question d'interprétation. Il n'y a pas de réponse unique et chaque lecteur ou auditeur peut identifier différents points de capiton dans un même discours. 

Auteur: Google Bard chatbot

Info:

[ langage ] [ dialogue ] [ homme-machine ] [ efficacité cachée ]

 
Commentaires: 2
Ajouté à la BD par miguel

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel