Lorsque nous saurons comment rendre les machines vraiment intelligentes, c'est que nous aurons trouvé moyens de les aligner sur les objectifs et les intentions de l'homme afin de leur faire faire ce que nous voulons. Pour l'instant, on peut définir une fonction objective. Dans de nombreux cas, c'est assez facile. Si vous voulez entraîner un agent à jouer aux échecs, vous pouvez définir ce qu'est une bonne performance. Vous obtenez un 1 si vous gagnez une partie et un 0 si vous perdez une partie, et 1/2 point peut-être si vous faites un match nul. C'est donc un objectif que nous pouvons définir. Mais dans le monde réel, tout bien considéré, les humains se soucient de choses comme le bonheur, la justice, la beauté et le plaisir. Aucune de ces choses n'est très facile à définir en C++ ou en Python. Il faudrait donc trouver un moyen de faire en sorte que des agents potentiellement ultra-intelligents servent réellement d'extension de la volonté humaine, de manière à ce qu'ils réalisent quelles sont nos intentions pour être ensuite capables de les exécuter fidèlement. Il y a là un grand défi de recherche au plan technique et beaucoup de chercheurs s'y attellent actuellement. Et en supposant que nous puissions résoudre ce problème technique, nous pourrons alors nous offrir le luxe de nous confronter à des questions politiques plus larges. Par exemple, qui doit décider de l'utilisation de l'IA, à quelles fins sociales doit-elle être utilisée, à quoi doit ressembler le monde futur de la superintelligence ?
Auteur:
Info:
Commentaires: 0