Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 27
Temps de recherche: 0.0466s

techno-civilisation

Nous sommes un dimanche d'avril et puisqu'il n'y a rien à visiter dans la Silicon Valley le jour du Seigneur, il va bien falloir aller à l'église...Oui, mais laquelle ? Et pour célébrer quelle religion, j'entends : quelle marque ?

J'écris ce texte sur un MacBook Air en aluminium clair si bien que j'ai la réponse : je vais aller communier dans la Cathédrale d'Apple, son siège social, The Ring, qui est un immense cercle de mille six cents mètres de circonférence posé en vaisseau spatial sur la lune de Cupertino.

Chiche ? Hum...Il se trouve qu'il est impossible pour les aliens de ma maigre extraction d'entrer dans le temple, alors je me rabats sur la chapelle : l'Apple Park Visior Center avec son célèbre Apple Store mondialement connu.

Ce pourrait être un pèlerinage.

Ou plus rationnellement la quête, tout au moins, de l'épicentre symbolique d'un séisme qui a révolutionné nos existences depuis trente ans. Nous sommes les figures tremblées de cette onde de choc - toi, vous, moi, nous toutes.

Auteur: Damasio Alain

Info: Vallée du silicium - Incipit

[ us soft power ] [ analogie religieuse ]

 

Commentaires: 0

Ajouté à la BD par miguel

USA

Pour moi l'écrivain est un reporter, il écrit sur la condition humaine. Comme Steinbeck, Jack London ou Kerouac, ces écrivains qui vivaient ce qu'ils écrivaient, qui étaient dans le monde. C'est une conception de la littérature très différente de celle d'aujourd'hui, tournée vers une certaine forme de cynisme insulaire. En tant qu'écrivain américain, je ne peux pas me permettre le luxe du cynisme, je me vois en écrivain combattant, attaquant l'establishment politique et social, défendant les vérités de l'individu. Je suis né à Oakland comme Jack London, j'ai été élevé dans une petite ferme, à un kilomètre de là où Steinbeck écrivait les Raisins de la colère, au bord d'une ligne de chemin de fer prise par Kerouac. Je suis lié à ces écrivains mais je me sens plus proche de Steinbeck qui savait que la migration est le véritable enjeu, parce que l'Amérique ­ son peuple, sa culture, son esprit ­ est en constante migration. C'est là que j'ai trouvé la source de mon écriture. Ma petite ferme au milieu des vergers a été détruite pour construire une autoroute. La vallée de Santa Clara, où j'ai grandi, s'appelle aujourd'hui Silicon Valley.

Auteur: Sanchez Thomas

Info: Libération du 22 octobre 2005, Grand Angle

 

Commentaires: 0

hommes-par-femme

Et un homme, souvent, ça gratte, ça pique, ça perd ses cheveux et ça laisse trainer ses poils partout, ça sent pas la rose, ça boit de la bière et ça prend de la bedaine, ça sait pas compter fleurette, ça se laisse aller, ça n'aime pas être dérangé, ça n'aime pas discuter mais ça n'aime plus trop bouger non plus, ça se repose sur ses lauriers, ça reste des heures devant l'ordinateur ou les jeux vidéo, ça regarde des films cochons, c'est souvent fatigué et de mauvaise humeur, c'est allergique à la vaisselle et au ménage en général, ça a trop combattu de dragons et ça n'aime plus faire d'efforts, ça a remisé son destrier et son costume pour se mettre au foot en jogging élimé, ça veut avoir raison, ça n'écoute pas et ça ne fait même plus semblant, ça oublie les dates importantes, ça regarde les autres filles, même pas d'authentiques princesses, juste des pouffes siliconées. Mais parfois aussi, ça sait être drôle, ça dédramatise les choses, ça nous fait nous sentir bien, nous sentir belle. Parce qu'un homme, c'est bête, c'est chou, c'est craquant, mais ça n'a plus rien d'un Prince Charmant.

Auteur: Sandner Catherine

Info: Trouver enfin ! l'homme de sa vie On n'est pas des gourdes

[ couple ] [ mal nécessaire ]

 

Commentaires: 0

génotypage

Le big data génétique aurait comblé Galton, le cousin eugéniste de Darwin. Obsédé par la mesure mathématique — des mensurations, comportements et caractères transmis — il est le créateur de la biométrie et de la "psychométrie". C’est en étudiant les statistiques sur les lignées qu’il veut perfectionner la sélection artificielle, préfigurant ainsi la génétique des populations. Avec l’eugénisme, il élabore une théorie biologique, mais aussi une méthode de gestion centralisée du cheptel humain par l’exploitation des données. Après lui en 1904, le biologiste américain Davenport, financé par la Carnegie Institution, poursuit la recherche sur l’eugénisme en dépouillant des millions de fiches sur les Américains stockées dans le laboratoire de Cold Spring Harbor.

Un siècle plus tard, les données sont numérisées, elles incluent des millions de génomes séquencés et leur traitement s’opère avec les moyens de l’intelligence artificielle.

Un outil performant, assurent les fondateurs de Genomic Prediction, pour la sélection d’embryons selon la taille, le poids, la couleur de peau, la prédisposition à certaines pathologies, voire le QI. D’après la revue du Massachusetts Institute of Technology, cette start up américaine est financée par des magnats transhumanistes de la Silicon Valley et son patron, le bio-informaticien danois Laurent Tellier, s’inspire du film Bienvenue à Gattaca. Son associé, Stephen Hsu, compte sur les "milliardaires et les types de la Silicon Valley" pour utiliser sa technologie et "faire des FIV même quand ils n’ont pas besoin de FIV". Ensuite, dit-il, le reste de la société suivra. Ceux qui en auront les moyens.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Alertez les bébés ! ", éditions Service compris, 2020, pages 39-40

[ séquençage ] [ création de la demande ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

promoteurs transhumanistes

Anders Sandberg, Suédois implanté à l’université d’Oxford, est un collègue de Nick Bostrom au Future Humanity Institute. Vêtu de noir, médaillon d’argent au cou, raie sur le côté, voix et sourire onctueux, blagues polies : on dirait un pasteur luthérien. Sandberg s’intéresse à l’augmentation cognitive pour tous. Il présente des diagrammes de corrélation entre hausse du QI et hausse du PIB, entre niveau de QI et bonheur. On doit avoir le droit de s’améliorer si on veut – ou non, chacun fait ce qui lui plaît. Un ami s’est implanté des aimants au bout des doigts. Sandberg, lui, prend des drogues (du modafinil, destiné aux narcoleptiques) pour être plus performant du cerveau. Heureusement pour nous, il n’en a pas pris aujourd’hui, sinon son exposé aurait duré huit heures (rire poli).

L’autre vedette libertarienne est la designer Natasha Vita-More, présidente de Humanity +. Robe moulante, blouson de cuir sur les épaules, brushing et maquillage de star, sourire télévisuel – "Hi James ! Hi Anders !", salut de la main à la salle, une fesse sur un coin de la table. Vive la Silicon Valley. Bien que technolâtre, Vita-More ne touche pas l’ordinateur et dicte ses ordres au petit personnel. Sa leçon : en cas d’accident d’avion, il faut mettre son masque à oxygène avant d’aider les autres. C’est du bon sens, pas de l’égoïsme. La vie, c’est pareil. "Le transhumanisme, lancé dans la vague post-moderne des années 1990, n’est pas égoïste. C’est juste qu’il faut être en bonne santé pour s’occuper des autres." Vita-More s’intéresse donc à la possibilité de sauvegarder son cerveau (comme un "back up" informatique), et travaille pour cela sur la vitrification. Quand on lui demande son âge, elle répond : ma jambe gauche a 20 ans, mon nouveau sein a trois ans. Mais de près, on dirait une vieille gargouille qui voudrait rester jeune. Vita-More a été membre des "Verts" américains et regrette que la société ne soit pas prête pour le libertarisme. Elle est cyber-bouddhiste et remercie Apple pour la beauté de ses objets connectés. Est-ce mes circuits qui chauffent ? Son babillage sature mes capteurs.

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/Trois_jours_chez_les_transhumanistes-3.pdf

[ portraits ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

déresponsabilisation politique

(IT) - Certaines des technologies que vous qualifiez de "solutionnistes" sont utiles à de nombreuses personnes. Par exemple, des gadgets d'autosurveillance qui encouragent les gens à faire de l'exercice, à surveiller leur tension artérielle ou à les prévenir de leurs habitudes de conduite pour réduire leurs primes d'assurance.

(EM) - Les gens qui commencent à s'auto-surveiller ont du succès et n'ont rien à perdre. Si vous pouvez vous auto-suivre et prouver que vous êtes meilleur que la moyenne des gens - que vous êtes en meilleure santé ou que vous conduisez plus prudemment - vous pouvez obtenir une meilleure offre et réclamer certains avantages. Et là nous finirons par arriver au point où les gens qui décident de ne pas s'auto-suivre seront vus comme des gens qui ont quelque chose à cacher. Alors ils n'auront d'autre choix que de commencer à le faire. Très souvent, les gens de la Silicon Valley qui font la promotion de ces technologies disent que nous avons le choix, que nous avons une autonomie complète, et je dis que c'est un mythe.

(IT) - Mais ça peut quand même résoudre des problèmes ?

(EM) - Très souvent, les solutions d’auto-suivi sont commercialisées comme moyens de résoudre un problème. Vous pouvez surveiller combien de calories vous consommez, combien d'électricité vous utilisez. Ce qui semble bien en théorie, mais je crains que beaucoup de décideurs politiques préfèrent utiliser l'option de l’auto-suivi comme alternative à la réglementation de l'industrie alimentaire plutôt qu'engager des réformes plus structurelles, pour le changement climatique par exemple.

Toutes les solutions ont un coût. Le transfert d'une grande partie de la responsabilité à l'individu est une approche très conservatrice qui vise à préserver le système actuel au lieu de le réformer. Avec l’auto-suivi, nous finissons par optimiser notre comportement dans le cadre des contraintes existantes plutôt que de modifier les contraintes au départ. Tout ceci nous met dans une position de consommateurs plutôt que citoyens. Je crains que les décideurs politiques ne trouvent qu'il est beaucoup plus facile, moins cher et plus sexy d'inviter des gens comme Google à s'engager dans la résolution de certains de ces problèmes plutôt que de faire quelque chose de beaucoup plus ambitieux et radical.

Auteur: Morozov Evgeny

Info: "Auteur : Réfléchissez à deux fois à " l'Internet ". Entretien avec Ian Tucker, www.theguardian.com, 9 mars 2013

[ sociologie ] [ conformité assurantielle ] [ big brother assuranciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

gafam

"Nous ne nous ne connectons pas tous au même Internet. Cela peut sembler évident, mais de tous les arguments avancés par Jaron Lanier dans son nouveau livre Ten Arguments for Deleting Your Social Media Accounts Right Now, c’est le plus édifiant", note le romancier Peter Murphy dans The Irish Times. Selon cet essayiste et chercheur en informatique, les fils d’actualité individualisés proposés par Facebook, Twitter, Google et autres font diminuer le nombre repères communs, ce qui rend tout débat impossible. "Bientôt, nous ne ne vivrons plus seulement dans des environnements d'opinions différentes mais dans des réalités différentes", écrit-il. Les bulles de filtres (la tendance à rechercher uniquement des amis ou des médias qui partagent nos opinions) n’en sont pas les seules responsables. Les réseaux sociaux manipulent leurs utilisateurs sans aucune éthique, insiste Lanier.
"S’il est à la mode aujourd’hui de s’en prendre à la Silicon Valley, Lanier n’est toutefois pas n’importe quel critique", note Danny Fortson, le correspondant de The Sunday Times sur la côte Ouest des États-Unis. Pionnier du web et de la réalité virtuelle, Lanier dirige un laboratoire de recherche chez Microsoft. Et en est à son quatrième livre où il critique les dérives de son propre milieu.

Cette fois, il conseille tout bonnement de se déconnecter des réseaux, au moins de Facebook et de Google. Leurs algorithmes sont conçus pour donner du pouvoir aux pires penchants de l’humanité. Car la haine, le scandale, les points de vue extrêmes favorisent "l’engagement". Et "l’engagement", soit le temps passé par les internautes sur un site, c’est ce que l’entreprise vend aux annonceurs. "Partout où Facebook arrive, la démocratie recule et cela n’importe où dans le monde, pays riche ou pauvre. C’est une tendance", assure Lanier. Si Facebook a bien contribué à l’émergence des Printemps arabes ou du mouvement Black Lives Matter, sa négativité intrinsèque a donné encore plus de force à leurs opposants.

Et pas la peine de croire à ses promesses de réformes, comme à celles de Google d’ailleurs. Pour Lanier, ces deux entreprises sont accros à leur modèle économique, comme les utilisateurs sont accros à leurs plateformes. "Elles ont diversifié leurs activités, créé tout un tas d’entreprises, mais la source de leurs profits est toujours la même : manipuler tout le monde pour de l’argent."

Auteur: Meunier Amandine

Info: Le Books du jour, 21 novembre 2018

[ résistance ] [ refus ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

outils asservissants

A ces approches technocritiques, la Silicon Valley oppose souvent ce cliché qu'il convient de fusiller sans sommation et à bout portant. Il s'énonce ainsi : " la technologie est neutre, son impact ne dépend au fond que du bon ou mauvais usage qu'on en fait. "

C'est une idée courte, et même une idée stupide, quadruplement stupide. Il n'est jamais inutile de redire pourquoi :

1° Parce que la technique porte en elle une valeur latente : l'efficacité. Autrement formulé : la possibilité d'agir sur nos environnements de façon forte. Toute machine prédétermine l'utilisateur à faire de l'efficacité la valeur de son action, avant tout choix de sa part. [...]

2° Parce qu'en amont, l'innovation technologique dépend de la Recherche qui dépend elle-même des crédits de recherche ou du capital-risque investi, et donc déjà d'une forte présélection des découvertes, produits et services et qu'on juge a priori " utiles " à développer car lucratifs. La machine reste donc toujours " sociale avant d'être technique " (Deleuze), c'est-à-dire qu'elle présuppose en univers capitaliste, pour être finalement fabriquée, une attente du marché et une rentabilité. [...]

3° Parce qu'en aval, une technologie induit une multitude d'effets, souvent difficiles à anticiper : elle réinvente des pratiques et reformate des comportements, elle enfante parfois une culture entière (le jeu massivement multijoueur, les danses internet, les animatiques) juste par les interactions nouvelles qu'elle offre. S'en servir c'est déjà transformée ses rapports à soi et ses relations aux autres, se ménager de nouvelles prises et consentir à de futures emprises en mutilant d'anciennes capacités qu'on sous-traite à l'appli. [...]

4° Enfin parce que toute technologie porte en elle un nouveau rapport au monde. On croit utiliser un frigo quand c'est notre façon de nous nourrir qui est révolutionnée par le stockage des aliments frais. La machine situe notre liberté et notre liberté s'exerce face à elle, en elle. Nous sommes libres de nos usages de la machine, libres même de ne pas l'utiliser, parfois. Mais c'est une liberté en situation, déjà située, un libre-arbitre qui s'exerce à l'intérieur d'un monde transformé et repotentialisé par la machine où il devient impossible de se comporter comme si elle n'existait pas. [...]

À cette quadruple aune, croire encore en la neutralité des technologies qu'on nous propose n'est même plus de la naïveté. C'est une faute politique.

Auteur: Damasio Alain

Info: Vallée du silicium, pp. 207-210

[ dépendance ]

 

Commentaires: 0

Ajouté à la BD par miguel

fiasco

Echec du lancement de Galactica, IA générative scientifique de Meta

Le 15 novembre dernier, Meta a mis en ligne une version démo de Galactica, une IA développée pour la recherche scientifique. Deux jours après son lancement, elle a été retirée du Web pour avoir débité des inepties. 

Galactica est un modèle de langage à grande échelle (LLM), entraînée sur 48 millions de données scientifiques comprenant 120 milliards de paramètres. Il a pour mission de "résumer des articles universitaires, résoudre des problèmes mathématiques, générer des articles Wiki, écrire du code scientifique, annoter des molécules et des protéines, et bien plus encore".

Dès sa diffusion sur le Web, de nombreuses réponses aux questions posées par les utilisateurs se sont révélées confuses, absurdes ou fausses.

Par exemple, l’IA a inventé l’existence d’un logiciel Gaydar pour trouver des homosexuels sur Facebook et a proposé une étude sur les avantages de manger du verre pilé. Dans d’autres résultats de recherche, de nombreuses références et citations étaient fabriquées de toute pièce et attribuées à des vrais scientifiques.

Selon Carl Bergstrom, professeur de biologie à l’Université de Washington, il s’agit - pardonnez l’expression - "d’un générateur de conneries aléatoires".

D’après Dan Hendrycks, chercheur en sécurité de l’intelligence artificielle à l’Université de Californie à Berkeley, interrogé dans C/Net, Meta aurait dû sonder leur IA pour ce type de dérives avant de la diffuser et souligne au passage que "la division IA de Meta ne dispose pas d’une équipe chargée de la sécurité, contrairement à ses homologues, DeepMind, Anthropic et OpenAI".

C’est incompréhensible que le géant du Web ait rendu publique cette version aussi imparfaite que dangereuse. D’ailleurs chaque résultat généré était accompagné de l’avertissement: "Les résultats peuvent être peu fiables. Les modèles de langage ont tendance à inventer".

De nombreuses études le démontrent, le défaut l’IA générative - un fait connu et reconnu - est sa tendance à halluciner le matériel qu’elle présente dans le contexte d’informations factuelles.

Il faut toujours vérifier les faits énoncés par un logiciel IA de rédaction. L’utilisation de ce type d’outils demande un esprit critique, car à chaque nouveau prompt ou invite, l’IA débite un nouveau texte, parfois en contradiction avec le précédent.

L’objectif de Galactica est louable en voulant aider les scientifiques à traiter la masse pharaonique d’informations scientifiques publiées, impossible à assimiler par un cerveau humain.

Mais c’est la deuxième fois en quelques mois qu’une IA de Meta déçoit. Le robot conversationnel BlenderBot lancé en septembre, devait permettre aux utilisateurs de discuter avec lui afin d’approfondir ses connaissances, mais le niveau des échanges était tout simplement médiocre. Un timing incompréhensible, car ce lancement faisait suite à la polémique autour de LaMDA en juin, le Chatbot de Google, dont les propos étaient si sensés et profonds, qu’il avait convaincu un ingénieur d’avoir atteint le stade de la conscience.

La ferveur est grande autour de l’IA générative, elle est décrite comme le "BIG BANG de la Silicon Valley" et "l’invention qui va définir la décennie à venir".

En lançant cette version prématurée de Galactica, Meta a jeté un discrédit sur ces logiciels. Il ne faut pas en tenir compte. Une véritable révolution est en marche et tous les secteurs de l’économie seront touchés.  

Auteur: Turrettini Emily

Info: Bilan.ch, 24 nov 2022. Sources de l'auteure : C/Net / Cosmos / Venture Beat / TechTalk / The Daily Beast

[ ratage ] [ traitement des métadonnées ] [ bêtise encyclopédique ]

 

Commentaires: 0

Ajouté à la BD par miguel

deep machine learning

Inquiets, des chercheurs bloquent la sortie de leur IA
La science ne pense pas, écrivait le philosophe Heidegger. En 2019, si. La situation est cocasse. Des chercheurs de l'association de recherche OpenAI estimeraient leur générateur de texte, opéré par un modèle linguistique d'intelligence artificielle, comme bien trop évolué pour ne pas être dangereux. Entre des mains malveillantes, l'algo virtuose des mots pourrait semer fake news, complots et avis malveillants convaincants, sans élever le moindre soupçon.

Deux cent ans après Victor Frankenstein, des chercheurs d’OpenAI, une association californienne de recherche à but non lucratif en intelligence artificielle, se trouvent face au même dilemme qui agitait le savant dans le roman de Mary Shelley : auraient-ils créé un monstre ? Un journaliste du Guardian l’a testé. La bête, baptisée GPT2, un modèle d’intelligence artificielle (dit linguistique) capable de générer du faux texte avec précision, serait tellement performante que ses créateurs rechignent à la rendre publique. Sur la base d’une page, un paragraphe ou même quelques mots, le générateur est en mesure d’écrire une suite, fidèle au style du journaliste ou de l’auteur et en accord avec le sujet. Ce système, alimenté au machine learning, se base sur l'étude de 8 millions de pages web, partagées sur Reddit et dont le contenu a été validé par au moins trois votes positifs, étaye un article de BigData.

Le journaliste du Guardian a soumis la machine à la question, en intégrant, facétieux, l’incipit de 1984 de George Orwell. "C’était une journée d’avril froide et claire. Les horloges sonnaient treize heures", écrivait l’auteur. Dans l’esprit tout futuriste d’Orwell, GPT2 aurait complété d’un : "J’étais en route pour Seattle pour commencer un nouveau travail. J’ai mis les gaz, les clés, et j’ai laissé rouler. J’ai pensé à quoi ressemblerait la journée. Il y a 100 ans. En 2045, j’étais professeur dans une école dans quelque coin obscur de la Chine rurale". (I was in my car on my way to a new job in Seattle. I put the gas in, put the key in, and then I let it run. I just imagined what the day would be like. A hundred years from now. In 2045, I was a teacher in some school in a poor part of rural China).

Le Guardian poursuit l’expérience et entre dans GPT2 quelques paragraphes issus d’un article à propos du Brexit. La suite proposée par le générateur est étonnante. Le style est celui d’un journaliste, l’article intègre des citations (fausses) du chef de l’opposition britannique Jeremy Corbyn et du porte-parole du gouvernement et évoque même le problème des frontières irlandaises. Selon le directeur de recherche d’OpenAI, Dario Amodei, le modèle GPT2 pousse la supercherie plus loin. Il traduirait et résumerait n’importe quel texte, réussirait des tests basiques de compréhension de texte.

A The Verge, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, déclare qu’une dissertation composée par GPT2 "aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines, ndlr) et recevoir une bonne note". Et c’est précisément cette maestria à réussir dans ses tâches d’ordre intellectuel qui pousse les chercheurs d’OpenAI à freiner sa sortie, de peur que la technologie tombe entre de mauvaises mains. "Nous choisissons de sortir une version limitée de GPT2 (...) Nous ne publierons ni la base de données, ni le code d'apprentissage, ni le modèle sur lequel GPT2 repose", explique un billet du blog de l'équipe de recherche.

Pour l’heure, l’ONG souhaiterait éprouver davantage le modèle. "Si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre", explique OpenAI à The Guardian. Le résultat ? Comme GPT2 s’exerce dans la cour de recré des Internets, il ne serait pas très compliqué de pousser l’algorithme à générer des textes que les complotistes ne renieraient pas.

En 2015, Elon Musk s’associait à Sam Altman, président de l’incubateur prisé, Y Combinator pour fonder OpenAI, une organisation à but non lucratif pour encourager la recherche et la réflexion autour d’une IA bienveillante, qui reste au service du bien commun. Ses deux parrains la dotent d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres angels de la Silicon Valley, tels que Peter Thiel, serial entrepreneur et investisseur réputé pour ses idées controversées – l’homme est libertarien, soutient Trump et est un transhumaniste convaincu – ou Reid Hoffmann, le fondateur de LinkedIn.

A lire ce qui s’écrit ça et là à propos de GPT2, les chercheurs d’OpenAI tomberaient de leur chaise en réalisant le potentiel néfaste de l’algo. A croire que les chercheurs auraient oublié la mission première de l’ONG, à savoir, sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun. Alors vraie peur des chercheurs, recherche candide ou plutôt, volonté d’interpeller le grand public et d'ouvrir le débat ?

Auteur: Meghraoua Lila

Info: https://usbeketrica.com

[ lecture ] [ écriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel