Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 82
Temps de recherche: 0.0558s

intelligence artificielle

Les réseaux neuronaux profonds (DNN) sont analysés via le cadre théorique du principe du goulot d'étranglement de l'information (IB). Nous montrons d'abord que tout DNN peut être quantifié par l'information mutuelle entre les couches et les variables d'entrée et de sortie. A l'aide de cette représentation, on peut calculer les limites théoriques d'information optimales du DNN et obtenir des limites de généralisation d'échantillons finis. L'avantage de se rapprocher de la limite théorique est quantifiable tant par la généralisation liée que par la simplicité du réseau. Nous soutenons que tant l'architecture optimale, le nombre de couches et les caractéristiques/connexions de chaque couche, sont liés aux points de bifurcation de l'arbitrage du goulet d'étranglement de l'information, à savoir la compression pertinente de la couche d'entrée par rapport à la couche de sortie. Les représentations hiérarchiques du réseau en couches correspondent naturellement aux transitions de phases structurelles le long de la courbe d'information. Nous croyons que cette nouvelle perspective peut mener à de nouvelles limites d'optimalité et à de nouveaux algorithmes d'apprentissage en profondeur.

A) Stade initial : La couche de neurones 1 encode toute l'information qui rentre (input data), y compris toutes les étiquettes (labels, polarités) Les neurones de cette couche étant dans un état quasi aléatoire, avec peu ou pas de relation entre les données et leurs étiquettes.
Ainsi chaque neurone artificiel qui se déclenche transmet un signal à certains neurones de la couche suivante en fonction des variables d'entrée et de sortie. Le processus filtre le bruit et ne retient que les caractéristiques les plus importantes.

B) Phase de montage : à mesure que l'apprentissage en profondeur commence, les neurones des couches (layers) suivantes obtiennent des informations sur l'entrée qui s'adaptent mieux aux étiquettes.

C) Changement de phase: la couche (calque) change soudainement de vitesse et commence à "oublier les informations" de l'input.

D) Phase de compression: les couches supérieures compriment leur représentation des données d'entrée en ne conservant ce qui est le plus pertinent pour les infos de sortie. Elles précisent l'étiquetage.

E) Phase finale : la dernière couche obtient le meilleur équilibre entre précision et compression, ne conservant que ce qui est nécessaire pour définir l'étiquette.

Auteur: Tishby Naftali

Info: Bottleneck Theory of Deep Learning, abstract

[ classification ] [ tri ] [ informatique ] [ discernement ] [ pattern recognition ]

 

Commentaires: 0

big brother

Facebook a manipulé les émotions de ses utilisateurs pour une étude
Une recherche publiée récemment expliquant comment Facebook a manipulé des informations de près de 700'000 utilisateurs anglophones a suscité l'inquiétude d'internautes. Le réseau social voulait étudier "la contagion émotionnelle" dans les groupes d'utilisateurs.
Pendant une semaine, du 11 au 18 janvier 2012, Facebook et des scientifiques des Universités Cornell et de Californie à San Francisco ont utilisé le système d'algorithmes du réseau pour modifier le contenu des informations reçues par un groupe d'utilisateurs afin d'étudier l'impact sur leurs émotions.
La recherche a été publiée dans la revue scientifique américaine Comptes rendus de l'Académie nationale des sciences (PNAS), datée du 17 juin. Les auteurs cherchaient à savoir si le nombre de messages positifs ou négatifs lus par les utilisateurs influençait la teneur de ce qu'ils postaient eux-mêmes sur le site.
Ils ont constaté que les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été "exposés".
"Les états émotionnels sont communicatifs et peuvent se transmettre par un phénomène de contagion, conduisant les autres personnes à ressentir les mêmes émotions sans en être conscientes", écrivent les auteurs de cette recherche. Selon eux, "ces résultats montrent la réalité d'une contagion émotionnelle de masse via les réseaux sociaux."
L'étude suscite une attention grandissante sur la toile après des articles publiés samedi dans la revue en ligne Slate et sur les sites du magazine "The Atlantic" et de "Forbes".
Levée de boucliers
Certains internautes expriment "leur trouble profond" ou qualifient la méthode utilisée "d'alarmante" ou de "démoniaque". Susan Fiske de l'Université de Princeton, qui a édité la recherche, a indiqué à "The Atlantic" avoir contacté les auteurs pour leur faire part de ses préoccupations quant à leurs travaux.
Ils lui ont dit que les autorités de leurs universités avaient approuvé ces travaux "car Facebook, apparemment, manipule systématiquement le contenu des informations diffusées".
Interrogé par l'AFP, Facebook, plus grand réseau social avec plus d'un milliard d'utilisateurs, a rejeté ces accusations. "Cette recherche a été menée pendant seulement une semaine et aucune donnée utilisée n'était liée au compte d'une personne en particulier", indique une porte-parole, Isabel Hernandez, dans un courrier électronique.

Auteur: Internet

Info:

[ pouvoir ] [ influence ]

 

Commentaires: 0

gafam

"Nous ne nous ne connectons pas tous au même Internet. Cela peut sembler évident, mais de tous les arguments avancés par Jaron Lanier dans son nouveau livre Ten Arguments for Deleting Your Social Media Accounts Right Now, c’est le plus édifiant", note le romancier Peter Murphy dans The Irish Times. Selon cet essayiste et chercheur en informatique, les fils d’actualité individualisés proposés par Facebook, Twitter, Google et autres font diminuer le nombre repères communs, ce qui rend tout débat impossible. "Bientôt, nous ne ne vivrons plus seulement dans des environnements d'opinions différentes mais dans des réalités différentes", écrit-il. Les bulles de filtres (la tendance à rechercher uniquement des amis ou des médias qui partagent nos opinions) n’en sont pas les seules responsables. Les réseaux sociaux manipulent leurs utilisateurs sans aucune éthique, insiste Lanier.
"S’il est à la mode aujourd’hui de s’en prendre à la Silicon Valley, Lanier n’est toutefois pas n’importe quel critique", note Danny Fortson, le correspondant de The Sunday Times sur la côte Ouest des États-Unis. Pionnier du web et de la réalité virtuelle, Lanier dirige un laboratoire de recherche chez Microsoft. Et en est à son quatrième livre où il critique les dérives de son propre milieu.

Cette fois, il conseille tout bonnement de se déconnecter des réseaux, au moins de Facebook et de Google. Leurs algorithmes sont conçus pour donner du pouvoir aux pires penchants de l’humanité. Car la haine, le scandale, les points de vue extrêmes favorisent "l’engagement". Et "l’engagement", soit le temps passé par les internautes sur un site, c’est ce que l’entreprise vend aux annonceurs. "Partout où Facebook arrive, la démocratie recule et cela n’importe où dans le monde, pays riche ou pauvre. C’est une tendance", assure Lanier. Si Facebook a bien contribué à l’émergence des Printemps arabes ou du mouvement Black Lives Matter, sa négativité intrinsèque a donné encore plus de force à leurs opposants.

Et pas la peine de croire à ses promesses de réformes, comme à celles de Google d’ailleurs. Pour Lanier, ces deux entreprises sont accros à leur modèle économique, comme les utilisateurs sont accros à leurs plateformes. "Elles ont diversifié leurs activités, créé tout un tas d’entreprises, mais la source de leurs profits est toujours la même : manipuler tout le monde pour de l’argent."

Auteur: Meunier Amandine

Info: Le Books du jour, 21 novembre 2018

[ résistance ] [ refus ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Elisa Vianello, chercheuse au CEA et coordinatrice du programme Edge AI, a reçu une subvention de 3 millions d'euros du Conseil européen de la recherche (ERC) dans le but de développer des dispositifs de mémoire sur silicium à l'échelle nanométrique inspirés du système nerveux des insectes. Un des objectifs de ce projet ambitieux est la mise au point de la toute première puce intelligente associée à un module neuronal local capable de traiter les données sensorielles en temps réel. Cette innovation trouve des applications dans la robotique grand public, les puces implantables pour le diagnostic médical et l'électronique portable.

La communauté de l'intelligence artificielle (IA) a récemment proposé de puissants algorithmes qui devraient permettre aux machines d'apprendre par l'expérience et d'interagir de manière autonome avec leur environnement. 

Toutefois, pour concrétiser cette ambition, des nanosystèmes dotés d'architectures de pointe de moins en moins énergivores, et dont la mémoire devra être à très haute densité, à haute résolution et dotée d’une endurance illimitée, doivent être mis en place. Si cette capacité n'existe pas encore aujourd'hui, le projet d’Elisa Vianello pourrait en ouvrir la voie : elle a découvert que différentes fonctions du système nerveux de l'insecte ressemblent étroitement aux fonctions assurées par les mémoires déterministes, probabilistes, volatiles et non volatiles.

"Comme la mémoire idéale n'existe pas aujourd'hui, le projet vise à construire une synapse hybride qui intègre différentes technologies de mémoire." Elle précise pour ce faire, s’être appuyée sur les grillons qui pour échapper à leurs prédateurs, "prennent des décisions justes à partir de données peu fiables, imprécises et lentes envoyées par leurs neurones et synapses. En examinant de près leur structure biologique, nous avons identifié une diversité de fonctions de type mémoire impliquées dans leurs systèmes sensoriels et nerveux. En combinant ces différentes fonctions, le système de traitement interne du criquet parvient à atteindre des performances remarquables et efficaces energétiquement." 

Elisa et son équipe fabriqueront des réseaux de dispositifs de mémoires physiques à l'échelle nanométrique avec l’objectif de traduire les principes biologiques des insectes en principes physiques. Ceci permettra l’apprentissage à partir d'un volume très limité de données bruitées, telles que les données mesurées en temps réel par différents capteurs (caméras, radars, capteurs cardiaques (ECG), capteurs musculaires (EMG), flux de bio-impédance et potentiellement aussi de signaux cérébraux par le biais de capteurs EEG et de sondes neuronales). 

"Les travaux d'Elisa permettront d’ouvrir de nouvelles perspectives de recherche vers des projets d’intelligence embarquée moins énergivore et capable d'apprendre en ligne", a déclaré Jean-René Lequepeys, directeur adjoint et technique du CEA-Leti, laboratoire duquel dépend Elisa Vianello. "Il s'agit d'une véritable rupture technologique et applicative qui combinera les derniers développements de la microélectronique en utilisant de nouvelles générations de mémoires non volatiles et en s'inspirant du monde vivant. Ce travail de recherche s'inscrit pleinement dans les priorités de l'institut et ouvrira de belles perspectives de premières mondiales et de commercialisation."

Auteur: Internet

Info: Sur http:wwwcea. Fr, Mars 2022. Elle obtient une bourse pour développer des mémoires à l'échelle nanométrique inspirées du système nerveux des insectes

[ épigénétique ] [ logique floue ] [ homme-animal ] [ heuristique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence

Les jeux vidéo intelligents sont à nos portes
Ils pourront tenir compte de l'état émotionnel du joueur ainsi que de son niveau de dextérité.
Bientôt, lorsque vous ressentirez un grand stress pendant une mission, votre jeu vidéo abaissera en temps réel le niveau de difficulté pour vous rendre la vie plus facile tout en s'assurant que l'expérience demeure positive. L'inverse se produira aussi : quand un défi ne sera pas à la hauteur de vos attentes, le jeu constatera votre ennui et rendra la situation plus complexe afin que vous vous amusiez davantage.
Grâce à des dispositifs qui se sont améliorés récemment, les jeux vont pouvoir interagir avec le joueur non seulement par la manette ou la souris, mais aussi par son regard et ce qu'il ressent. Pour parvenir à cette connexion entre le joueur et le jeu, celui-ci reposera sur le déploiement d'un système de reconnaissance des expressions du visage et du regard (eye tracking system) et d'un électroencéphalogramme portable qui captera les ondes cérébrales des joueurs.
" Ces systèmes s'appuient quant à eux sur une série d'algorithmes d'apprentissage-machine conçus pour que les systèmes d'exploitation des jeux synthétisent une gamme d'émotions et d'expressions du visage des joueurs et qu'ils les incorporent de façon à entretenir en eux-mêmes un état émotionnel pour adapter la prise de décision aux états cognitifs et affectifs du joueur ", explique Claude Frasson.
En somme, il s'agit d'un véritable système d'intelligence artificielle par lequel un jeu apprend à "ressentir" les émotions vécues par le joueur - l'excitation, le stress, l'anxiété, l'impatience - pour moduler les situations de jeu en fonction de celles-ci.
Vers des jeux thérapeutiques
Avec cette technologie, il devient possible notamment d'éviter qu'un jeu devienne nocif en causant, par exemple, des troubles du sommeil, car le jeu pourra selon le cas atténuer la difficulté présentée et ramener ainsi le joueur dans des zones cérébrales associées au plaisir, sans excitation ni inquiétude ", indique le professeur.
Cette technologie rend également possible l'avènement d'approches ludiques pour réguler l'état psychologique de personnes vivant d'intenses émotions.
" On pourra concevoir des jeux thérapeutiques qui cibleront l'anxiété liée à la performance, les phobies ou les troubles d'apprentissage ", mentionne Claude Frasson.
C'est d'ailleurs ce à quoi travaillent deux de ses étudiants à la maîtrise en informatique, Pierre-Olivier Brosseau et Annie Thi-HongDung Tran. Ils mettent actuellement au point un jeu intelligent qui vise le contrôle des émotions dans un contexte de conduite automobile, dans le but de réduire les risques de rage au volant. "Lorsqu'un embouteillage devient stressant, on ne réfléchit plus de la même manière, explique Pierre-Olivier Brosseau. Notre jeu vidéo intelligent permettra de prendre conscience des émotions qui se manifestent en pareilles circonstances et de s'habituer à les calmer. Ça permet d'agir soi-même sur son propre cerveau."
D'autres applications existent, comme des tests de résistance au stress. "L'armée américaine est déjà à tester des solutions qui permettent de vérifier quels sont, parmi les marines, ceux qui résistent le mieux à certaines situations de stress intense", confie Claude Frasson.

Auteur: Internet

Info: 1 décembre 2015

[ artificielle ] [ homme-machine ]

 

Commentaires: 0

traitement automatique du langage

- C'est quoi un algorithme de représentation ?

- Il s'agit d'un ensemble de règles ou de procédures utilisées pour transformer des données ou des informations d'une forme vers une autre. L'objectif d'un algorithme de représentation est de convertir des données complexes ou non structurées en une représentation plus facile à gérer ou plus utile, souvent dans un format qui peut être facilement traité par une machine ou analysé par des humains.

Les algorithmes de représentation sont couramment utilisés dans divers domaines de l'informatique, notamment le traitement du langage naturel (TAL), la vision par ordinateur et l'apprentissage automatique. Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments ou la recherche d'informations. Dans le domaine de la vision artificielle, les algorithmes de représentation peuvent être utilisés pour extraire des caractéristiques d'images ou de données vidéo, qui peuvent ensuite être utilisées pour des tâches telles que la reconnaissance d'objets ou la détection de mouvements.

- Tu as écrit "Par exemple, dans le traitement du langage naturel, un algorithme de représentation peut être utilisé pour transformer des données textuelles en un format numérique qui peut être utilisé pour des tâches d'apprentissage automatique telles que l'analyse des sentiments". Peux-tu élaborer un peu plus ?

- Bien sûr. L'analyse des sentiments, également connue sous le nom d'exploration d'opinion (opinion mining), est une application courante du traitement du langage naturel qui consiste à analyser un texte pour déterminer l'attitude ou les sentiments de l'auteur à l'égard d'un sujet particulier. Dans l'analyse des sentiments, un algorithme de représentation est utilisé pour transformer les données textuelles en un format numérique qui peut être facilement traité par un algorithme d'apprentissage automatique.

Une approche courante de l'analyse des sentiments consiste à utiliser un panier-modèle-de-mots, qui représente un document sous forme d'une collection de termes individuels, sans tenir compte de leur ordre d'apparition. Chaque item se voit attribuer un poids correspondant à son importance dans le document, généralement en fonction de sa fréquence d'apparition et de sa pertinence par rapport à la tâche à accomplir. La représentation numérique du document qui en résulte peut ensuite être utilisée comme entrée d'un modèle d'apprentissage automatique, tel qu'un classificateur, qui est entraîné à prédire le contenu- ressenti-sentiment-caractère de nouveaux documents inédits.

Prenons l'exemple de la phrase suivante : "J'aime le film "La rédemption de Shawshank"". Un algorithme de représentation par panier-modèle-de-mots pourrait représenter cette phrase sous la forme d'un vecteur de nombres, où chaque élément correspond à un mot particulier de la phrase, et la valeur de chaque élément indique la pertinence ou l'importance de ce mot pour le sentiment de la phrase. Dans ce cas, le vecteur pourrait ressembler à ceci : 

[0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

Ici, le deuxième élément a une valeur de 1 parce que le mot "amour" est très pertinent pour le sentiment de la phrase. Les autres éléments ont tous une valeur de 0 car les autres mots de la phrase ne sont pas particulièrement pertinents pour le feeling de la phrase.

Une fois que la représentation numérique du document est générée, elle peut être intégrée à un algorithme d'apprentissage automatique spécialement formé sur un ensemble de documents dont les étiquettes de sentiment sont connues  (par exemple, positives, négatives ou neutres). L'algorithme d'apprentissage automatique peut alors apprendre à associer certains modèles numériques dans les données d'entrée avec  des étiquettes de sentiment particulières, et utiliser cette connaissance pour prédire le sentiment de nouveaux documents non vus.

Auteur: chatGPT4

Info: 3 mai 2023

 

Commentaires: 0

Ajouté à la BD par miguel

biochimie

L'IA prédit la fonction des enzymes mieux que les principaux outils

Un nouvel outil d'intelligence artificielle peut prédire les fonctions des enzymes sur la base de leurs séquences d'acides aminés, même lorsque ces enzymes sont peu étudiées ou mal comprises. Selon les chercheurs, l'outil d'intelligence artificielle, baptisé CLEAN, surpasse les principaux outils de pointe en termes de précision, de fiabilité et de sensibilité. Une meilleure compréhension des enzymes et de leurs fonctions serait une aubaine pour la recherche en génomique, en chimie, en matériaux industriels, en médecine, en produits pharmaceutiques, etc.

"Tout comme ChatGPT utilise les données du langage écrit pour créer un texte prédictif, nous tirons parti du langage des protéines pour prédire leur activité", a déclaré Huimin Zhao, responsable de l'étude et professeur d'ingénierie chimique et biomoléculaire à l'université de l'Illinois Urbana-Champaign. "Presque tous les chercheurs, lorsqu'ils travaillent avec une nouvelle séquence de protéine, veulent savoir immédiatement ce que fait la protéine. En outre, lors de la fabrication de produits chimiques pour n'importe quelle application - biologie, médecine, industrie - cet outil aidera les chercheurs à identifier rapidement les enzymes appropriées nécessaires à la synthèse de produits chimiques et de matériaux".

Les chercheurs publieront leurs résultats dans la revue Science et rendront CLEAN accessible en ligne le 31 mars.

Grâce aux progrès de la génomique, de nombreuses enzymes ont été identifiées et séquencées, mais les scientifiques n'ont que peu ou pas d'informations sur le rôle de ces enzymes, a déclaré Zhao, membre de l'Institut Carl R. Woese de biologie génomique de l'Illinois.

D'autres outils informatiques tentent de prédire les fonctions des enzymes. En général, ils tentent d'attribuer un numéro de commission enzymatique - un code d'identification qui indique le type de réaction catalysée par une enzyme - en comparant une séquence interrogée avec un catalogue d'enzymes connues et en trouvant des séquences similaires. Toutefois, ces outils ne fonctionnent pas aussi bien avec les enzymes moins étudiées ou non caractérisées, ou avec les enzymes qui effectuent des tâches multiples, a déclaré Zhao.

"Nous ne sommes pas les premiers à utiliser des outils d'IA pour prédire les numéros de commission des enzymes, mais nous sommes les premiers à utiliser ce nouvel algorithme d'apprentissage profond appelé apprentissage contrastif pour prédire la fonction des enzymes. Nous avons constaté que cet algorithme fonctionne beaucoup mieux que les outils d'IA utilisés par d'autres", a déclaré M. Zhao. "Nous ne pouvons pas garantir que le produit de chacun sera correctement prédit, mais nous pouvons obtenir une plus grande précision que les deux ou trois autres méthodes."

Les chercheurs ont vérifié leur outil de manière expérimentale à l'aide d'expériences informatiques et in vitro. Ils ont constaté que non seulement l'outil pouvait prédire la fonction d'enzymes non caractérisées auparavant, mais qu'il corrigeait également les enzymes mal étiquetées par les principaux logiciels et qu'il identifiait correctement les enzymes ayant deux fonctions ou plus.

Le groupe de Zhao rend CLEAN accessible en ligne pour d'autres chercheurs cherchant à caractériser une enzyme ou à déterminer si une enzyme peut catalyser une réaction souhaitée.

"Nous espérons que cet outil sera largement utilisé par l'ensemble de la communauté des chercheurs", a déclaré M. Zhao. "Avec l'interface web, les chercheurs peuvent simplement entrer la séquence dans une boîte de recherche, comme dans un moteur de recherche, et voir les résultats.

M. Zhao a indiqué que son groupe prévoyait d'étendre l'intelligence artificielle de CLEAN à la caractérisation d'autres protéines, telles que les protéines de liaison. L'équipe espère également développer davantage les algorithmes d'apprentissage automatique afin qu'un utilisateur puisse rechercher une réaction souhaitée et que l'IA lui indique l'enzyme appropriée.

"Il existe de nombreuses protéines de liaison non caractérisées, telles que les récepteurs et les facteurs de transcription. Nous voulons également prédire leurs fonctions", a déclaré Zhao. "Nous voulons prédire les fonctions de toutes les protéines afin de connaître toutes les protéines d'une cellule et de mieux étudier ou concevoir la cellule entière pour des applications biotechnologiques ou biomédicales.

Zhao est également professeur de bio-ingénierie, de chimie et de sciences biomédicales et translationnelles au Carle Illinois College of Medicine. 

Auteur: Internet

Info: "Enzyme function prediction using contrastive learning, "30 mars 2023. Université de l'Illinois à Urbana-Champaign

[ cofacteurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

singularité paramétrées

L’ANONYMAT DIGITAL N’EXISTE PAS, AUTANT LE SAVOIR UNE BONNE FOIS POUR TOUTES

Toutes les traces que nous générons, toutes les données nous concernant, que nous communiquons d’une manière ou d’une autre, même les plus anonymes et les plus incomplètes, toutes ces informations permettent… de nous identifier avec une quasi-certitude! Telle est la conclusion d’une recherche menée par Luc Rocher, aspirant FNRS au pôle en ingénierie mathématique de l’UClouvain.

Le doctorant a travaillé avec un spécialiste du domaine, le Pr Yves-Alexandre de Montjoye, désormais professeur assistant, responsable du Computational Privacy Group à l’Imperial College de Londres.

Les deux chercheurs, accompagnés par Julien Hendrickx (Icteam/UCLouvain) ont élaboré un algorithme qui permet d’estimer, avec grande précision, si des données anonymes, mais " réidentifiées ", appartiennent bien à une même personne ou non. L’algorithme évalue la probabilité pour une combinaison de caractéristiques connues d’être suffisamment précise pour décrire un seul individu parmi plusieurs milliards de personnes.

Une réidentification à 99,98%

En utilisant cette méthode, les chercheurs de l’UCLouvain et de l’Imperial College London ont montré que 99.98% des Américains seraient correctement réidentifiés dans n’importe quelle base de données en utilisant 15 attributs démographiques, avec des chiffres similaires à travers le monde (16 attributs en ajoutant la nationalité).

" Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi elles, beaucoup moins sont également nées le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien ", précise Luc Rocher, dans un communiqué de l’UCLouvain. " Des informations plutôt standards, que les entreprises demandent régulièrement. Et qui permettent de réidentifier les individus ".

Après avoir appris quelles caractéristiques rendent les individus uniques, les algorithmes des chercheurs génèrent des populations synthétiques pour estimer si un individu peut se démarquer parmi des milliards de personnes.

" En Belgique, depuis 2017, certaines données médicales collectées par des hôpitaux sont revendues de manière anonyme. Le sont-elles vraiment ? C’est là tout l’intérêt du modèle développé par les chercheurs de l’UCLouvain et du Imperial College London, puisqu’il permet désormais de vérifier la réalité, ou non, de cet anonymat ", estime l’UCLouvain.

Tout le monde recueille des données

Voici un peu plus d’un an, l’ingénieur civil Yves-Alexandre de Montjoye, qui jongle avec les mathématiques appliquées et la protection de la vie privée avait déjà indiqué à Bruxelles, lors d’une conférence " Science & Cocktails ", qu’au départ de quelques bribes de données, il était possible d’identifier avec quasi certitude un individu.

À quoi peuvent servir les données d’un téléphone portable ? Comment utiliser en toute sécurité les données volumineuses tout en allant de l’avant ? Ces questions étaient au centre de cette rencontre avec un large public.

" Nous vivons à une époque où l’information sur la plupart de nos mouvements et de nos actions est recueillie et stockée en temps réel. Tout le monde recueille des données sur vous : vos recherches sur Google, vos commandes de nourriture en ligne, vos lieux de vacances et les profils d’autres personnes que vous consultez sur Facebook. Et la disponibilité d’un téléphone mobile à grande échelle, d’une carte de crédit, d’un historique de navigation, etc., augmente considérablement notre capacité à comprendre et potentiellement affecter le comportement des individus et des collectifs.

Toutefois, l’utilisation de ces données soulève des préoccupations légitimes en matière de protection de la vie privée. Lors de cet événement, Yves-Alexandre de Montjoye a expliqué comment les mécanismes traditionnels de protection des données ne parviennent pas à protéger la vie privée des personnes à l’ère des grandes données. Et il explique comment des informations sensibles peuvent souvent être déduites de données apparemment inoffensives.

Les mots de passe et la cryptographie n’y changent rien

Et pour celles et ceux qui pensent qu’avec quelques bons mots de passe et autres outils de cryptographie, il est possible de protéger durablement ses données… Mieux vaut tout de suite faire son deuil de cette idée.

" Qu’il s’agisse de messages, de photos de vacances ou de tout autre type d’informations personnelles transmises ou stockées sur internet: ces données sont absolument transparentes. Ou du moins, elles le seront dans un proche avenir ", martèle le scientifique québécois Gilles Brassard, spécialiste de la cryptographie quantique.

De passage à Bruxelles en début d’année dans le cadre de la chaire du Québec à l’Académie royale des Sciences, ce professeur au Département d’informatique et de recherche opérationnelle de l’Université de Montréal disait: " rien de ce que vous confiez en ligne n’est sûr. Ou plus exactement, rien de ce que vous avez confié ou transmis jusqu’à présent, et ce depuis les débuts de l’internet, n’est confidentiel "…

Auteur: Internet

Info: Daily mail, 24 Jjuily 2019, Christian Du Brulle

[ profils numériques ] [ éthique des métadonnées ]

 

Commentaires: 0

Ajouté à la BD par miguel

titres possibles pour ce logiciel

Tentative libératrice d'intégration-participation des idiosyncratiques parlêtres au sein des corpus lexicologiques consensuels.



Insertion inclusive des voix singulières dans les référentiels linguistiques partagés.



Démocratisation des langages et participation des locuteurs marginalisés aux corpus de référence.



Valorisation de la diversité linguistique et intégration des expressions idiosyncratiques dans un corpus souple.



Lutte contre l'homogénéisation linguistique et reconnaissance des variations dialectales et sociolectales.



Ouverture des corpus lexicographiques aux formes d'expression non normées et créatives. 



Ouvrir les barrières linguistiques et favoriser l'inclusion des voix minoritaires dans les discours officiels.



Célébrer la richesse et la diversité des langages humains et encourager l'usage de formes non standardisées.



Décloisonner les corpus linguistiques et favoriser le métissage des styles et des registres.



Donner une voix aux exclus du langage et enrichir les référentiels linguistiques par leur apport singulier.



Réinventer les corpus lexicographiques comme espaces de rencontre et d'échange entre toutes les formes d'expression.



Essai d'inclusion audacieuse des locuteurs atypiques dans les vocabulaires standard.



Enrichissement du lexique partagé par l'inclusion réfléchie d'expressions individuelles.



Ouverture mesurée du lexique standard à des expressions originales.



Dialogue constructif entre les expressions individuelles et le lexique établi.



Élargissement inclusif du vocabulaire officiel pour une meilleure représentativité.



Expérience visant à intégrer activement les expressions individuelles et divergentes dans les ensembles de mots communément acceptés.



Tentative d'articuler les singularités langagières au sein des structures linguistiques normatives.



Chanson rebelle des mots uniques qui se frayent un chemin dans la symphonie du langage commun.



Subversion douce-amère des codes linguistiques par l'irruption des voix hétérodoxes.



Frontière poreuse entre l'idiolecte et le lexique partagé, où se joue la subversion du sens.



Intégration expérimentale d'unités lexicales non standardisées dans des corpus linguistiques de référence.



Inclusion des marges langagières dans le centre du discours.



Peut-on élargir la norme linguistique pour y inclure les expressions singulières ?



Osons célébrer la diversité des voix qui enrichissent la langue ! 



Tissage audacieux de fils de laine dissidente dans la tapisserie du langage officiel.



Contrebande linguistique : faire passer les mots rebelles en douce dans un répertoire officiel.



Révolution lexicale : donner voix au peuple dans le grand livre de la langue.



Exploration des frontières du langage : où l'individuel rencontre le collectif.



Hommage aux hérétiques du langage : ceux qui ont osé défier la norme et enrichir la langue.



Laboratoire du langage : inventer les mots de demain en explorant les marges d'aujourd'hui.



Apprendre à écouter les voix oubliées : une clé pour une meilleure compréhension du monde.



Biodiversité linguistique : préserver la richesse des expressions pour un monde plus vibrant.



Silence entre les mots : espace fertile où naissent de nouvelles significations.



Que la langue s'épanouisse dans sa diversité, que chaque mot trouve sa place dans le chant du monde !



Marathon linguistique : les mots marginaux courent vers la ligne d'arrivée, celle de la reconnaissance.



Informatique, cerveaux humain et Intelligence artificielle au service de la diversité : algorithmes pour dénicher les pépites linguistiques cachées.



Quête du sens pur : explorer les profondeurs du langage pour découvrir la signification cachée dans les mots.



Rêve linguistique : où les mots se libèrent des conventions et dansent dans un ballet poétique.



Combat pour la liberté d'expression : briser les carcans du langage officiel pour donner voix à tous.



Éloge de la langue oubliée : retrouver les mots perdus et les faire revivre dans le langage d'aujourd'hui.



Vers un langage universel : où chaque mot, quelle que soit son origine, est accueilli et célébré.



Expressions plus courtes:

Inclusion des idiosyncraties dans les corpus consensuels.

Démocratisation linguistique et participation inclusive.

Valorisation classificatoire de la diversité des langages et expressions.

Lutte contre l'homogénéisation et reconnaissance des variations.

Ouverture des corpus aux formes non normées et créatives.

Briser les barrières linguistiques et inclure des voix minoritaires.

Célébrer la richesse et la diversité des langages humains.

Décloisonner les corpus et favoriser le métissage des styles.

Donner une voix aux exclus du langage et enrichir les corpus.

Réinventer les corpus lexicologique comme espaces de rencontre et d'échange.

Expressions plus imagées:

Peindre le paysage linguistique avec toutes ses nuances.

Faire chanter la symphonie des langages humains.

Tisser une tapisserie lexicale multicolore et inclusive.

Bâtir un Babel inclusif où toutes les voix se rencontrent.

Cultiver un jardin linguistique où chaque expression trouve sa place.



Etc.

Auteur: Mg

Info: 26 fév 2024, grandement aidé par Gemini pour les reformulations

[ déclinaisons ] [ humour ] [ variations ] [ FLP défini ] [ diachronie ]

 
Commentaires: 1
Ajouté à la BD par miguel

réseaux sociaux

Le shadow banning et son rôle dans la censure moderne

Les médias sociaux nous observent et contrôlent ce que nous voyons.

Ce n'est pas un secret, les algorithmes dominent nos vies sociales en ligne - ce n'est pas comme si nous ne prenions pas nos propres décisions lorsqu'il s'agit de savoir à qui nous parlons ou quels médias nous consommons, mais ce serait faire preuve d'une vraie ignorance qu'ignorer comment les systèmes ont été programmés pour catégoriser, collecter et suggérer des données simplement en fonction de nos goûts et de nos suivis. Cela nous expose à des contenus, des personnes et des idées que nous n'aurions pas trouvés par nous-mêmes, mais cela soulève la question du degré de contrôle que ces systèmes exercent sur ce que nous voyons. Voilà qui nous amène au shadow banning. 

Le shadow banning est la décision d'une plateforme de médias sociaux d'empêcher partiellement ou totalement l'interaction avec le contenu d'une personne - empêcher de nouvelles personnes de rechercher votre contenu, s'assurer que vous n'apparaissez pas sous les hashtags ou même limiter la fréquence à laquelle vous êtes suggéré comme personne à suivre... ne sont que quelques exemples de la façon dont cela peut être réalisé. Les plateformes telles qu'Instagram et Tiktok reconnaissent rarement les allégations de cette nature, mais soulignent plutôt leur droit de supprimer les publications qui ne sont pas conformes à leurs directives communautaires et le fait qu'en acceptant d'utiliser la plateforme, vous consentez à leur pouvoir de le faire. 

D'une manière générale, le fait que vos vidéos soient supprimées ou que moins de personnes puissent y accéder n'est pas le plus grand préjudice du monde, mais il faut noter que les personnes qui font l'objet d'un bannissement caché présentent un profil significatif. Si je me réfère aux directives de la communauté Tiktok, il est dit que sont mises au rebut les vidéos créées dans le but de nuire à autrui. Mais dans ces directives, ils s'efforcent de répéter que sont autorisés "les contenus éducatifs, historiques, satiriques, artistiques et autres qui peuvent être clairement identifiés comme des contre-discours ou qui visent à sensibiliser aux dommages causés par des individus et/ou des organisations dangereuses". Cette citation et leur déclaration de soutien au mouvement Black Lives Matter surprendront surtout tous les de créatifs noirs qui ont vu leur taux de fréquentation chuter et leurs vidéos être retirées de leur profil. 

Instagram s'est montré tout aussi complice dans cette affaire - il y a eu un retour de bâton significatif de la part des travailleurs du sexe, des éducateurs sexuels et souvent des espaces inclusifs, queer et sexuellement positifs sur cette application. Dans son article publié dans le Guardian, Chante Joseph a exposé la zone grise qui n'est pas aussi clairement définie que la politique de non-nudité d'Instagram, où les administrateurs peuvent signaler un contenu comme étant "sexuellement suggestif" ; beaucoup de gens affirment que c'est nécessaire afin de s'assurer que les enfants ne sont pas exposés à des contenus inappropriés - plutôt que de responsabiliser les parents ou que les plateformes de médias sociaux tentent au moins d'introduire une forme de restriction d'âge, la charge est donc placée sur les créateurs. Mais considérons, par exemple, les créateurs LGBTQIA+ ; leurs comptes fournissent des informations auxquelles des jeunes qui n'ont peut-être même pas fait leur coming out pourraient avoir accès afin de pouvoir traiter et comprendre leurs sentiments dans un espace sain qui ne leur était pas accessible il y a seulement dix ans. En substance, ces directives sur ce qu'une personne est autorisée à partager sont définies par une norme morale arbitraire où les discussions sur le sexe, en particulier celles qui se situent en dehors du domaine de l'hétéronormatif, sont quelque chose dont il faut se protéger, même s'il y a très peu d'espaces qui les autorisent dans la vie réelle.

Instagram, Twitter, TikTok, Facebook ont tous la réputation d'être superficiels et de reposer sur l'auto-gratification des gens qui veulent exister et être vus (ce qui n'est même pas une mauvaise chose en soi), mais à côté de cela, ils peuvent être utilisés pour partager des idées, des pensées politiques et des savoirs. Ainsi, lorsque des créateurs noirs qui tentent d'informer les masses sont empêchés de partager des informations ou lorsque des messages de travailleurs du sexe sur la misogynie sont inaccessibles parce que leur page est considérée comme trop "sexuellement suggestive" (terme indéfini et donc difficile à traiter), le silence est assourdissant. Le shadowbanning est une menace pour nous tous car il maintient l'illusion du contrôle. Or, cette idée est synonyme de censure et d'obstruction à l'information. De plus, cette obstruction est dictée par ce que les plateformes considèrent comme approprié, de sorte que le pouvoir que nous supposions avoir dans nos voix peut constamment être réduit au silence.

Auteur: Oluwakemi Agunbiade

Info: https://cherwell.org/, 3 septembre 2020

[ pouvoir numérique ]

 

Commentaires: 0

Ajouté à la BD par miguel