Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 61
Temps de recherche: 0.066s

greenwashing

L’expansion du vélo électrique, de Pékin à Paris, n’est pas un choix politique de décideurs convaincus du respect de l’environnement. Le vélo électrique leur est imposé par l’encombrement de l’espace public par la voiture. Leur écologie n’est pas celle des années 1970 qui voulait "réinventer la vie". Elle est le pilotage technocratique de la machine urbaine, imposée par la contrainte des embouteillages et la raréfaction des ressources en pétrole, en air, en espace. Le vélo n’est plus un moyen d’émancipation – à bicyclette, avec Paulette -, mais le moyen de transport le plus efficient dans une métropole asphyxiée.

Auto-Boulot-Dodo ou Vélo-Boulot-Dodo, peu importe, tant que les composants sociaux fonctionnent, zéro délai, zéro défaut. Le e-vélo, si facile à hisser dans le train, si pratique pour se faufiler entre les voitures, est devenu, selon l’expression des ingénieurs du territoire, un "maillon de la chaîne de mobilités". Il ne s’oppose plus aux autres moyens de transport, il est un moyen supplémentaire, selon que l’on habite plus ou moins loin de son lieu de travail, selon l’offre de transports publics, selon la météo. Grâce aux distances qu’il permet de parcourir, le vélo électrique peut prendre sa part dans la hausse ininterrompue depuis soixante ans des distances de déplacements quotidiens domicile-travail. Quoique Le Dauphiné libéré survende les epromenades sur des routes de montagne, le vélo électrique est d’abord et avant tout ce qu’en dit la Pompili de la Transition écologique : un "vélotaf". Dans les années 1960-1970, la voiture individuelle a imposé son aménagement de l’espace. Si le vélo électrique est à ce point soutenu par les pouvoirs publics, c’est qu’il peut y trouver sa place sans remises en question plus essentielles.

Refuser le vélo électrique c’est crever la baudruche de la "transition énergétique", de la technopole électrique et connectée. Le vélo électrique, anodin en apparence, est le petit mensonge qui en fait accepter de bien pires. Celui de l’électromobilité, d’abord : aussi propre soit-elle en apparence, les électromobilistes exportent les nuisances de leur mode de vie chez les voisins des mines de lithium, de cobalt, de manganèse. Celui de l’atome évidemment, sur le point de passer pour une "énergie propre" si Emmanuel Macron parvient à l’imposer parmi les énergies financées par le "Green New Deal" de l’Union européenne. Celui, plus général enfin, de l’écologie apolitique des technocrates, des scientifiques et des ingénieurs, qui vantent le vélo électrique comme ils vantent la voiture électrique, les énergies renouvelables, la ville intelligente.

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/voleurs_de_ve_los-2.pdf

[ saturation urbaine ] [ bicyclette ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

sciences

Pourquoi un bruit strident de craie est-il insupportable ?
Des bruits stridents tels que celui d'une fourchette sur une assiette ou celui d'une craie sur un tableau provoquent chez la majorité des gens des réactions de frissonnement ou de chair de poule. L'étude menée par un chercheur de l'Institut de Musicologie de l'Université de Vienne et un chercheur de l'Université Macromedia pour les Médias et la Communication de Cologne révèle que cela est dû à la fois à des raisons psychologiques et à des raisons physiologiques.
Les fréquences moyennes sont en cause
Dans un premier temps, les chercheurs Christoph Reuter et Michael Oehler ont regroupé une centaine de volontaires afin de sélectionner les bruits stridents (ongles sur un tableau, fourchette sur une assiette...) les plus crispants. D'autres volontaires ont ensuite été soumis à cette sélection de sons au cours des expériences. Deux groupes ont été formés avec ces volontaires ; le premier a été informé qu'ils entendraient des extraits de musique moderne, l'autre groupe savait qu'il allait écouter des bruits de raclement.
Durant la lecture des sons, le niveau de stress des participants a été mesuré (sur la base de la pulsation, de la tension artérielle, de la température et de la résistance électrique de la peau), puis leurs avis concernant l'évaluation du bruit ont été recueillis. Il s'avère que ceux qui pensaient écouter de la musique ressentent les bruits de façon nettement moins désagréable ; mais les réactions corporelles liées au stress étaient cependant comparables dans les deux groupes.
Par la suite, les chercheurs ont modifié les sons avec un programme informatique, en enlevant ou amplifiant certaines fréquences ou en supprimant certaines parties. Il s'est avéré que ce sont principalement les fréquences du bruit comprises entre 2.000 et 4.000 Herz qui sont perçues comme désagréables: sans ces composantes, les bruits ne sont plus aussi mal ressentis. Une étude de 1986 par le chercheur Randolph Blake, lauréat du prix IgNobel en 2006 pour cette raison, avait déjà conclu que c'étaient principalement les bruits de fréquence moyenne qui provoquaient cette sensation.
Cette gamme de fréquence joue un rôle particulier dans la communication humaine: même les enfants en bas âge pleurent surtout dans cette gamme. Or le canal auditif humain, en raison de sa longueur et de sa forme, permet la résonance des sons de ces fréquences. Les chercheurs font donc l'hypothèse que le caractère désagréable des sons de raclement est encore renforcé par l'anatomie humaine. Ils envisagent à présent de mieux comprendre les spécificités de ces bruits, afin que les ingénieurs puissent réduire la nuisance causée par exemple par les aspirateurs ou les équipements de construction.

Auteur: Internet

Info: 23 nov 2011

[ écoute ] [ musique ]

 

Commentaires: 0

green washing

La "transition écologique" promise par le numérique, le tout électrique et le photovoltaïque exige beaucoup d’électricité. Selon le Bureau de recherches géologiques et minières (BRGM), l'affinage du silicium en polysilicium consomme 150 MWh par tonne de produit fini. La transformation du polysilicium en lingot monocristallin, 31 MWh par tonne. Enfin, la découpe des plaquettes, 42,5 MWh par tonne. Voilà pour les économies d’énergie.

Du côté de la matière, il faut 7,14 tonnes de quartz pour une tonne de silicium monocristallin. Et la découpe de celui-ci en tranches produit des déchets de sciage (le "kerf") perdus pour les puces, estimés à 40 % du lingot. Mais on ne rebouche pas les carrières avec. Quant aux produits chimiques utilisés tout au long du procédé, la filière est pudique à ce sujet. Difficile d’en établir une liste précise et quantifiée. Le CNRS donnait en 2010 le chiffre de 280 kg de produits chimiques par kilo de silicium produit (acides, ammoniaque, chlore, acétone, etc.).

Tout de même, pensent les électeurs Verts, si les ingénieurs assurent que les technologies issues du silicium permettent la "transition écologique", il doit bien y avoir une raison ? La raison, c’est une de ces duperies dont les technocrates sont coutumiers et que les écocitoyens sont trop heureux de gober. Leur "transition écologique" repose sur le seul indicateur des émissions de gaz à effet de serre. Leur unique objectif, la "décarbonation" de l’économie, ignore l’entropie de la matière et de l’énergie, c’est-à-dire la réalité physique du désastre industriel, sans parler de la dévastation des milieux par les pollutions industrielles et l’artificialisation.

Les ingénieurs parviendront peut-être à maintenir un mode de vie techno-consommateur sans émission de carbone (quid du méthane, autre gaz à effet de serre ?), avec une hausse des températures limitée à 2°, c’est-à-dire des catastrophes climatiques en chaîne, tout de même. Ce sera au prix d’une Terre dévastée par la production énergétique. Des millions d’éoliennes à perte de vue, sur terre et en mer, des océans de panneaux solaires, des installations électriques partout, sans oublier le nucléaire, ses déchets éternels, son poison et sa menace. Quant aux barrages alpins, à la vitesse où fondent les glaciers, qui peut garantir que l’eau y sera suffisante ? La Romanche coulera-t-elle aussi impétueusement dans les périodes de sécheresse de la vertueuse économie décarbonée ?

Votre voiture électrique n’émet certes pas de CO2 et votre smartphone vous économise des déplacements, mais la société numérique et automobile dévore les ressources naturelles – matière et énergie – qui nous permettent de vivre. Un détail. Et on ne vous parle pas de la faune, de la flore et des paysages - pas de sensiblerie.

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/cycle_silicium.pdf

[ développement durable ] [ coûts cachés ] [ conséquences ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

énergie verte

L’hydrogène est partout sur Terre, notamment dans l’eau, mais jamais pur ; le problème est de l’isoler. Jusqu’ici, on y parvient en brûlant beaucoup d’énergie fossile (pétrole, gaz, bois) pour créer les réactions chimiques nécessaires. Ces procédés rejettent 830 millions de tonnes de CO2 par an, soit 2,5 fois les émissions de la France. Mais l’industrie a besoin de cet hydrogène pour produire les engrais azotés qui polluent nos nappes phréatiques (les ammonitrates, à l’origine des catastrophes d’AZF à Toulouse et du port de Beyrouth) ; pour raffiner les produits pétroliers qui polluent notre air (carburants) ; pour fabriquer les puces électroniques des smartphones, comme chez STMicroelectronics, dont les rejets de chlorure d’hydrogène et d’ammoniac contaminent l’air et l’eau de la cuvette grenobloise. Bref, l’hydrogène saccage notre environnement lors de sa production et de ses usages. Pour de véritables écologistes, la solution découle de l’énoncé du problème : stop.

Pour les technologistes, macroniens, verts, rouges - tous saint-simoniens – la solution est dans l’hydrogène "décarboné". En fait, de l’hydrogène produit avec de l’électricité, énergie prétendue non polluante puisque nul gaz ne s’échappe des prises et interrupteurs. On appelle ça l’électrolyse. Rappelez-vous vos cours de chimie : en envoyant de l’électricité dans de l’eau via des électrodes, on sépare oxygène et hydrogène. Il s’agit donc d’industrialiser le procédé. Le CEA-Grenoble s’y affaire avec sa technologie "d’électrolyseur haute température à oxyde solide", déployée à échelle industrielle via Genvia, sa société créée avec Schlumberger New Energy, en partenariat avec Vinci Construction, les ciments Vicat et l’Agence régionale énergie climat Occitanie. Objectif : créer une "giga factory" pour "répondre aux livraisons de gigawatts d'électrolyseurs et de piles à combustible que le marché devrait demander en 2030 et au-delà."

[...] L’industrie rejettera donc toujours plus d’ammoniac, de chlorures d’hydrogène, de particules fines, mais fabriqués avec de l’hydrogène produit "proprement". Vraiment ? Le "mix énergétique faiblement émetteur de CO2", c’est le nom de code pour nucléaire. L’hydrogène "décarboné", c’est de l’hydrogène nucléaire, à quelques pourcentages près d’éolien et de solaire, sources d’électricité aussi ravageuses que les autres. Rabâchons : il-n’y-a-pas-d’énergie-propre.

L’autre objectif des technologistes est le moteur électrique à hydrogène pour voiture, scooter, bus, train, bateau, avion : les "mobilités du futur". Car l’hydrogène possède un fort pouvoir énergétique et peut être converti en électricité, en chaleur ou en force motrice. Suivez bien : grâce à la pile à combustible (PAC), votre hydrogène produit avec de l’électricité… produit derechef de l’électricité. C’est l’inverse de l’électrolyse.

Dépenser de l’électricité pour produire de l’électricité, c’est raisonnable pour les ingénieurs. C’est ainsi qu’ils peuvent stocker l’électricité en surplus dans les périodes de moindre consommation. Certes, ils perdent 85 % d’énergie pour transformer cette électricité en hydrogène, puis pour faire l’inverse, mais c’est mieux que de tout perdre. Comme les taux d’intérêt négatifs en somme. Puis les Shadoks nous l’ont appris : "Il vaut mieux pomper même s'il ne se passe rien, plutôt que risquer qu'il se passe quelque chose de pire en ne pompant pas".

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Le règne machinal", éditions Service compris, 2021, pages 79 à 82, https://www.piecesetmaindoeuvre.com/IMG/pdf/mutation.pdf

[ greenwashing ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

déconfinement cosmique

L'État d'Israël est-il entré en contact avec des extraterrestres ?

Selon le général israélien à la retraite et actuel professeur Haim Eshed, la réponse est oui, mais tout est tenu secret car "l'humanité n'est pas prête".

Dans une interview au Yediot Aharonot, Eshed - qui fut à la tête du programme de sécurité spatiale israélien pendant près de 30 ans et qui a reçu trois fois la distinction "Israel Security Award" - a expliqué qu'Israël et les Etats-Unis ont des contacts avec des aliens des années.

Et il nêst pas question ici d'envahissement ou d'immigration, Eshed précisant l'existence d'une "Fédération Galactique".

L'ancien chef de la sécurité spatiale, âgé de 87 ans, a décrit plus en détail les accords conclus entre les ETs et les États-Unis, qui ont apparemment été conclus parce qu'il y a un  volonté de rechercher et comprendre "le tissu de l'univers". Cette coopération comprend une base souterraine secrète sur Mars, où se trouvent des représentants américains et extraterrestres.

Si tout ça est vrai, cette coopération coïnciderait avec la création par le président américain Donald Trump de la Space Force en tant que cinquième branche des forces armées américaines, bien qu'on ne sache pas depuis combien de temps ce type de relation -s'il y'en a bien une - existe entre les États-Unis et leurs alliés extraterrestres présumés.

Eshed insiste sur le fait que Trump est au courant de leur existence, et qu'il était "sur le point" de la révéler.  Cependant, la Fédération Galactique l'aurait empêché de le faire, arguant souhaiter empêcher une hystérie de masse estimant que l'humanité doit "évoluer et atteindre un stade où elle puisse ... comprendre ce que sont l'espace et les vaisseaux spatiaux", rapporte le Yediot Aharonot.

Quant à la raison pour laquelle il a choisi de révéler cette information maintenant, Eshed explique que le moment choisi est simplement dû à l'ampleur des changements dans le paysage académique et au respect qu'il a lui-même dans le milieu universitaire. "Si ce que je dis aujourd'hui était arrivé il y a cinq ans, on m'aurait interné", a-t-il expliqué au Yediot.

Il a ajouté qu'"aujourd'hui, je n'ai rien à perdre et les choses bougent. "J'ai reçu diplômes et prix, je suis respecté dans les universités et à l'étranger, où la tendance est également en train de changer".

Eshed fournit plus d'informations dans son dernier livre, The Universe Beyond the Horizon - conversations avec le professeur Haim Eshed, ainsi que d'autres détails tels que la façon dont les extraterrestres ont empêché les apocalypses nucléaires et "quand on pourra se lancer et rendre visite aux Men in Black". Le livre est disponible dès maintenant pour le NIS 98.

Bien qu'il ne soit pas clair s'il existe des preuves qui pourraient soutenir les affirmations d'Eshed, tout ça survient juste en amont d'une annonce récente de SpaceIL, le groupe derrière la tentative ratée d'Israël de faire atterrir un vaisseau spatial sur la lune en 2019.

L'annonce a été publiée sur les médias sociaux avec le texte "Ready to get excited again ?", et contient une vidéo de 15 secondes de la lune avec un texte disant "Back to the Moon", suivi de la date du 9 décembre 2020. Il s'agit probablement du prolongement du vaisseau spatial Beresheet, qui s'est écrasé après que les ingénieurs aient perdu le contact avec lui quelques minutes avant son atterrissage.  En attendant le projet de suivi, intitulé Beresheet 2, devrait prendre trois ans pour être prêt. Tout en sachant que nous ne connaîtrons peut-être jamais la vérité.

Le Jerusalem Post n'a pas été en mesure de contacter cette supposée Fédération Galactique pour obtenir des commentaires.

Auteur: Internet

Info: Jerusalem post, 8 décembre 2020. https://www.jpost.com/omg/former-israeli-space-security-chief-says-aliens-exist-humanity-not-ready-651405?fbclid=IwAR2oZZgKuM53oMUZVw9qaO7GPS9GeB9ZEXX6c0Petnix9mw65m3oaickxnI

[ sensationnalisme ] [ ovnis ] [ putaclic ]

 
Commentaires: 3
Ajouté à la BD par miguel

sciences

Les effets de la musique sur le cerveau et la santé
On dit que la musique élève l'âme, mais elle élève aussi... le cerveau ! En effet, une étude récente réalisée par des chercheurs membres du Centre de recherche sur le cerveau, le langage et la musique (CRBLM) rapporte que l'apprentissage de la musique avant l'âge de sept ans influence positivement le développement du cerveau. Plus précisément, la formation musicale pendant l'enfance favorise des connexions plus fortes entre les régions sensorielles et motrices de notre matière grise, l'aidant ainsi à mieux orchestrer la planification et l'exécution de nos mouvements.
Plus encore, des données indiquent que les enfants qui suivent des leçons de musique réussissent mieux certains types de tests, particulièrement ceux de lecture et de concentration. D'autres recherches démontrent qu'une formation musicale développe les capacités auditives, notamment dans un contexte bruyant. Pareillement, l'apprentissage de plusieurs langues pendant l'enfance procure des avantages cognitifs qui peuvent ralentir la sénescence.
Le CRBLM a été créé en 2011, il réunit les forces vives de la recherche sur l'organisation, le fonctionnement et le dysfonctionnement des systèmes nerveux musical et linguistique. Etabli à l'Université McGill et financé par le FRQNT, ce regroupement stratégique rassemble des ingénieurs, des neuroscientifiques, des linguistes, des experts en vieillissement et des psychologues provenant aussi de diverses universités - Université de Montréal, Université Concordia, Université Laval, Université du Québec à Montréal - et de l'INRS.
Par exemple, l'axe de recherche sur les neurosciences se penche sur la capacité d'apprentissage de plusieurs langues. Il tente aussi de mieux comprendre comment nos méninges interagissent avec la musique pour, à long terme, mieux cerner et peut-être traiter des problèmes de langage. Car langage et musique partagent certaines zones du cerveau. C'est ce qui explique que, souvent, un accident cérébral perturbe nos facultés musicales et verbales. Par contre, musique et paroles utilisent également des circuits neuronaux séparés et peuvent donc être perturbés isolément. Les chercheurs ont constaté que beaucoup de patients atteints d'Alzheimer semblent conserver la capacité de reconnaître la musique alors qu'ils n'identifient plus les membres de leur famille et que leur discours est embrouillé.
Une grande partie des travaux sur la musique se fait dans le Laboratoire international de recherche sur le cerveau, la musique et le son (BRAMS), situé à l'Université de Montréal. Cette importante infrastructure est intégrée au CRBLM et dispose notamment de dix salles de test insonorisées à la fine pointe de la technologie et d'un système vidéo 3D d'enregistrement de mouvements.
La compréhension des effets du langage et de la musique sur le cerveau représente tout un défi. En effet, il n'y aurait pas de centre musical et langagier unique dans le cerveau. Comme pour la compréhension du langage, la musique est traitée par différents chefs d'orchestre. Ainsi, chez un musicien, une partie de la matière grise se concentre sur le mouvement des mains, tandis qu'une autre partie s'efforce de déchiffrer les notes de la partition. Par des techniques de neuro-imagerie fonctionnelle, les scientifiques enregistrent les réponses du cerveau et les mouvements de l'interprète à l'aide d'un système de senseurs. Ils combinent ensuite ces données dans des modèles théoriques neurophysiologiques et mathématiques pour comprendre comment le système nerveux permet à une personne de produire de la musique rapidement et facilement. Des chercheurs comme les codirecteurs du BRAMS - Isabelle Peretz, professeure au Département de psychologie de l'Université de Montréal, et Robert Zatorre, professeur à l'Institut neurologique de Montréal (MNI) - ont ainsi établi que certains réseaux neuronaux sont tout de même exclusivement dédiés au traitement de la musique.
Selon certaines études, compte tenu du fait que la musique et la zone de commande du mouvement partagent des circuits neuronaux, l'art musical peut aider les patients atteints de Parkinson ou ceux qui ont subi un accident vasculaire cérébral à améliorer - ou à retrouver - la mobilité. Les personnes qui ont des problèmes de cognition ou de langage profiteraient également des bienfaits d'une mélodie. Les prescriptions pour une thérapie musicale, c'est pour bientôt...

Auteur: Internet

Info: http://www.bulletins-electroniques.com/actualites/73014.htm

[ thérapie ]

 

Commentaires: 0

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel