Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 12
Temps de recherche: 0.0412s

aporie

Le profond paradoxe mis au jour par la recherche en IA est que la seule façon de traiter efficacement des problèmes très complexes est de s'éloigner de la logique pure... De façon presque systématique cela nécessite peu de raisonnement pour prendre la bonne décision... Les systèmes experts ne servent donc pas à raisonner, mais à savoir... Le raisonnement prend du temps, c'est pourquoi nous le faison le moins souvent possible. Au lieu de cela, nous stockons les résultats de notre raisonnement pour les consulter ultérieurement.

Auteur: Crevier Daniel

Info: Intelligence artificielle

[ subjectif-objectif ] [ complexité tâtonnante ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

polymathe

Le docteur Lefferts est... eh bien sa spécialité est la non spécialité. Tu vois, la science a atteint un point où chacune des branches se subdivise sans cesse en spécialités, et chaque spécialité à sa propre moisson d'experts. La plupart des experts vivent confinés. (...) Son travail est de rapprocher les chimistes et le biologistes, les spécialistes de mathématique pures et de physique appliquée et de pschologie clinique, et les ingénieurs, et tous les autres (...). Sa spécialité est la pensée scientifique dans son application à toutes les sciences. Il n'a pas de tâche assignée, sinon d'avoir une idée générale de tous les domaines et de faire passer de l'un à l'autre les renseignements nécessaires.

Auteur: Sturgeon Theodor

Info: Never underestimate, George W Barlow, traducteur

[ citation s'appliquant à ce logiciel ] [ désordre ] [ créativité ]

 

Commentaires: 0

justice

Intelligence artificielle : des robots à la place des juges ?
L’intelligence artificielle va-t-elle bientôt remplacer l’humain en matière judiciaire ? Les tribunaux seront-ils confiés à des robots qui feront office de magistrats ?
Ces questions peuvent prêter à sourire. Pourtant, en France, les cours d’appel de Rennes et de Douai ont participé, d’avril à juin 2017, à une expérimentation menée par le ministère de la Justice. Une dizaine de magistrats s’étaient portés volontaires pour tester la plate-forme de la société française Predictice, qui se targue d’être capable de prévoir l’issue d’un jugement grâce à l’intelligence artificielle. L’outil, basé sur un algorithme, est déjà utilisé par des cabinets d’avocats et des directions juridiques de grandes entreprises comme Axa ou Orange.
En scannant la jurisprudence des cours d’appel et de cassation, soit des centaines de milliers de documents, le logiciel en tire des statistiques qui permettent d’établir les chances de succès d’un dossier judiciaire et d’évaluer le montant des indemnités financières en cas de divorce, licenciement, troubles de voisinage, etc.
Cependant, les essais des cours d’appel de Rennes et de Douai n’ont pas été considérés concluants.
Mais on teste un peu partout en Europe des logiciels destinés à suppléer, voire remplacer les juges dans les affaires supposées les plus simples.
Il y a quelques jours, en Belgique, parmi les pistes pour réformer la justice, les experts consultés ont là-aussi remis au ministre un rapport évoquant la "justice prédictive" et expliquant que des algorithmes bien alimentés pourraient à l’avenir rendre des décisions lors de certains contentieux. La "robotisation de la justice" permettrait notamment de faire des économies et de tendre vers une plus grande efficacité, affirment ces experts.
Le juge-machine ne ferait pas intervenir sentiments, opinions et préjugés mais serait parfaitement neutre, lit-on encore.
Et certainement terriblement inhumain, devrait-on ajouter.Intelligence artificielle : des robots à la place des juges ?

Auteur: Internet

Info: Média presse info, Société, Depauw Pierre-Alain, 4 mars 2018

[ homme-machine ] [ impartialité ]

 

Commentaires: 0

citation s'appliquant à ce logiciel

Voyons FLP comme une sorte de "bibliothèque des idées". Mais, une bibliothèque, pour paraphraser Michel Melot, devrait être "une symphonie, pas un vacarme".

Pas ici. Dans les "Fils de la pensée" sont intégrés des concepts courts et des extraits plus longs, tous choisis et tagués avec une bonne dose de subjectivité.

Donc point d'ordre au-sens du livre avec un début et une fin. Encore moins du "chef-d'oeuvre arrêté", mais un agencement différent, correspondant à une quête - ou des quêtes -, croisées, comme dans une immense forêt des idées où, à force de passages du promeneur chercheur compilateur, commenceraient à se dessiner des pistes. Certaines rebattues donc bien marquées, parce que correspondants à des évidences de la pensée humaine (prenez les sentiers "mort" et "définitif" ou "mourir" et "libération"...) d'autres à peine marquées parce que plus orientées et définies (au hasard de ces percées forestières : "confort" et "abrutissement" ou "langage" et "limitation").

Quelques vieux sages, (certains jamais nés, d'autres peut-être morts temporairement) experts des ballades dans cette infinie sylve, fille des mots, phrases, paragraphes, chapitres... certains engloutis à jamais, comme avalés et assimilés par ces touffeurs végétale de syllabes, d'autres réfugiés dans des clairières qui n'existent plus, s'accordent cependant sur ce constat : "Trois sortes de quêtes sont possibles dans ces entrelacs". Par ordre d'importance : celle de la beauté qu'on déguste, celle de l'objet que l'on recherche pour un usage. Et la plus hasardeuse : celle de la vérité.

Les créateurs de ce monde de lettres préfèrent quand à eux les intoxiqués de formules et de littérature, explorateurs désintéressés, absorbés-distraits, au point qu'ils abandonneront quelques vivres, comme par mégarde, quelque part dans ce site jungle. Propositions ou appréciations... Tant ludiques que nutritives , comme autant d'indices nourriciers qui pourront étancher au passage quelque visiteur égaré sur les même sentes. Et l'aideront à vivre.

Auteur: Mg

Info: 10 mai 2015. En hommage admiratif à "Le jardins aux sentiers qui bifurquent" de JL Borges.

[ web ] [ présentation ]

 
Commentaires: 2

communication

Un article de Casey Kazan pour Daily Galaxy : "Stephen Hawking nous a récemment alertés en déclarant que le contact avec une civilisation extraterrestre avancée pourrait avoir de graves conséquences pour l'espèce humaine. On se souvient de cette remarque d'Arthur C. Clarke, pour lequel "toute technologie suffisamment avancée serait indiscernable de la magie." Sur leurs traces, des experts de renommée mondiale tels le physicien Sir Martin Rees, de l'Université de Cambridge, et Paul Davies, astrobiologiste de l'Université d'Etat d'Arizona, se sont demandé, dans le cas où nous serions confrontés à une technologie extraterrestre de loin supérieure à la nôtre, si nous serions seulement capables de réaliser ce dont il s'agit. Une technologie en avance d'un million d'années ou plus, pourrait nous sembler miraculeuse. En fait, Davies explique dans son nouveau livre "Eerie Silence" qu'une technologie très avancée n'est peut-être même pas basée sur de la matière. Qu'elle pourrait ne pas avoir de dimensions, ni de formes déterminées, ni de contours bien définis. Qu'elle serait dynamique à tous les niveaux d'espace et de temps. Ou, inversement, que nous ne pourrions discerner ses comportements. Qu'elle ne consisterait pas en un assemblage d'éléments distinctifs, mais qu'il s'agirait plutôt d'un système, ou d'une subtile corrélation de choses sur un plan supérieur. Davies se demande s'il n'y a pas en réalité "autre chose que de la matière et de l'information". Il écrit : "Il y a cinq cents ans, on ne pouvait entrevoir le concept-même d'une information servant à manipuler des objets, ou le principe de logiciels." Se peut-il qu'il y ait une dimension encore plus élevée, hors de toute expérience humaine, qui organise les électrons ? Dans l'affirmative, nous serions incapables d'observer ce "troisième niveau" au plan informationnel et encore moins à celui de la matière. Nous devons être ouverts à la possibilité qu'une technologie extraterrestre avancée, âgée d'un milliard d'années, pourrait fonctionner à un troisième niveau - peut-être même à un quatrième ou cinquième niveau - tous totalement incompréhensibles pour l'esprit humain dans son état évolutif actuel, en 2010.

Auteur: Internet

Info: Ovnis-USA

[ spéculation ] [ sciences ] [ xénolinguistique ] [ limitation anthropique ] [ projectionnistes ] [ niveaux vibratoires ]

 

Commentaires: 0

citation s'appliquant à ce logiciel

Exploré Internet ce matin sur ce qui se dit au sujet des "bulles informationelles" (ou effet de résonnance web). Pour constater deux choses.
Primo les experts interrogés sont profs dans les hautes écoles, jeunes adultes hyper formatés, qui donnent la triste impression de peu réfléchir, au sens où leur job est principalement de transmettre les codes en cours à leurs ouailles - et les évaluer ensuite dessus. Pour ce qui est d'une réflexion distanciée il faudra repasser, ils n'ont pas le temps, ils ont la tête dans le guidon, et donnent le sentiment d’ânonner le monde dans lequel ils vivent. De plus on a l'impression que ce développement web va plus vite, large et loin, que n'importe quel esprit.
Deuxio le phénomène de résonance Internet (surfez en mode incognito pour vous faire une idée) parait relativement stupide. Vous aimez les biscuits ? super, on va vous en donner... En gros on vous enferme dans vos préférences. Il me semble que - sauf pour quelques bizarres - ceci ne peut que rapidement conduire au dégoût. Qui n'aime pas le dépaysement ?
Maintenant il faut bien reconnaître que cet effet de bulle a tendance à conforter les avis, dans la mesure où les algorithmes vous centrent au sein d'un monde "confortant" où la contradiction tend à disparaître. (Il y a, au passage cette chaîne "pensées antagonistes" - que FLP a ouvert. On espère pouvoir développer ce concept bien plus avant.)
Enfin on nous parle de "bulles qui s'éloignent les unes des autres".
La seule image que ça m'évoque et celle d'individus qui, comme vous et moi, en vieillissant, s'éloignent les uns des autres. Ils affinent, avant de la terminer pour les plus vieux, leur singularité. Mais il y a sans aucun doute une réflexion à poursuivre là-dessus.
Ainsi de l'importance du mode incognito, ou d'une application comme FLP, ah ah ah... Parce que FLP vous fera lire des choses imprévues, souvent très imprévues, et parviendra peut-être à vous aider à remettre en question quelques unes de vos projections.

Auteur: Mg

Info:

[ individuation ]

 
Commentaires: 2
Ajouté à la BD par miguel

compétition

Face à l’appât du gain, deux intelligences artificielles de Google se révèlent "très agressives"
Le meilleur moyen de savoir si le développement des intelligences artificielles progresse est de les mettre en pratique. Pour cela, la filiale de Google Deepmind a récemment intégré des IA dans des jeux virtuels afin de savoir quel serait leur comportement face à une situation donnée. Entre collaboration et affrontement, cette étude passionnante nous montre de manière primitive que les intelligences artificielles ne reculent devant rien pour arriver à leurs fins.
Après avoir démontré leurs capacités en s’illustrant au jeu de Go, battant récemment les meilleurs joueurs du monde, les IA de Google se sont retrouvées entre elles dans des jeux vidéo, dans le cadre d’une étude baptisée "Multi-agent renforcement learning in séquentiel social dilemnas". D’après les équipes de Deepmind, l’objectif de cette étude est de savoir si, face à l’appât du gain, les intelligences artificielles privilégieraient la collaboration ou l’affrontement. Si les jeux vidéo ressemblent à des versions grossières de Pacman, les résultats nous permettent de tirer quelques conclusions.
Dans le premier jeu baptisé "Gathering", les joueurs doivent récolter le plus de pommes possibles depuis un point central. Chaque joueur dispose d’un pistolet laser afin de pouvoir éliminer temporairement son adversaire le temps de pouvoir récupérer un maximum de pommes. Les IA Deepmind sont en rouge et bleu, les faisceaux laser en jaune et les pommes en vert. Au début de la partie, quand il y a suffisamment de pommes pour les deux joueurs, elles se livrent une bataille pacifique. Toutefois, les IA n’hésitent pas à se servir de leur pistolet laser pour neutraliser leur adversaire quand les pommes se font rares.
En utilisant des formes de Deepmind de plus en plus complexes, les chercheurs ont suggéré que plus l’agent est intelligent et plus il est capable d’apprendre de son environnement, ce qui lui permet d’utiliser des tactiques très agressives pour prendre le dessus. "Ce modèle… montre que certains aspects du comportement humain semblent émerger comme un produit de l’environnement et de l’apprentissage. Des politiques moins agressives émergent de l’apprentissage dans des environnements relativement abondants, avec moins de possibilités d’actions coûteuses. La motivation de la cupidité reflète la tentation de surpasser un rival et de recueillir toutes les pommes soi-même", explique Joel Z Leibo, membre de l’équipe de recherche.
Dans le deuxième jeu baptisé "Wolfpack", trois IA sont présentes : deux loups doivent chasser une proie et la capturer dans un environnement plein d’obstacles, à la manière d’une meute. Contrairement au jeu précédent, Wolfpack encourage la coopération. Si les deux loups sont près de la proie lorsque celle-ci est capturée, alors les deux reçoivent une récompense, indépendamment de celui qui l’a capturée.
"L’idée est que la proie est dangereuse – un loup solitaire peut la surmonter, mais il risque de perdre la carcasse à cause des charognards. Cependant, lorsque les deux loups capturent la proie ensemble, ils peuvent mieux protéger la carcasse contre les charognards, et donc recevoir une récompense plus élevée", explique l’équipe dans leur rapport.
En fonction de leur environnement, les IA ont soit privilégié l’agressivité et l’égoïsme, soit la collaboration pour un plus grand succès personnel. Si Google n’a pas encore publié son étude, les premiers résultats révèlent qu’élaborer des intelligences artificielles ne signifie pas qu’elles estimeraient nos propres intérêts comme priorité absolue.

Auteur: Internet

Info: Dailygeekshow.com nov 2017

[ logiciel expert ]

 
Mis dans la chaine

Commentaires: 0

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel