Centre pour l'étude des risques existentiels

Centre pour l'étude des risques existentiels
Histoire
Fondation
Voir et modifier les données sur Wikidata
Cadre
Sigle
(en) CSERVoir et modifier les données sur Wikidata
Type
Centre de rechercheVoir et modifier les données sur Wikidata
Siège
CambridgeVoir et modifier les données sur Wikidata
Pays
 Royaume-UniVoir et modifier les données sur Wikidata
Organisation
Site web
(en) cser.orgVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge créé à l'origine pour se concentrer sur l'étude des risques liés à des évolutions de la technologie susceptible de mettre en danger l'avenir même de l'humanité. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2].

L'une des études du centre, le risque que des robots se révoltent contre l'espèce humaine dans une approche semblable à celle dépeinte par Terminator, a bénéficié d'une importante visibilité médiatique. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3].

Par la suite, le centre a précisé ses centres d'intérêt pour les élargir à d'autres risques susceptibles de mettre en danger la continuation de la civilisation ou la survie de l'espèce humaine. Les quatre catégories de risques envisagées sont les suivantes :

  • les risques technologiques extrêmes ;
  • les risques biologiques catastrophiques mondiaux ;
  • les risques extrêmes de type environnementaux d'impact mondial ;
  • les risques en lien au développement de l'intelligence artificielle.

Pour le centre, les risques technologiques extrêmes incluent une guerre nucléaire, une pandémie issue de développements artificiels, le changement climatique, effondrement écologique ou des impacts de l'intelligence artificielle avancée[4].

Le centre de recherche a été à l'initiative de la création d’un groupe parlementaire transpartisan centré sur les intérêts des générations futures, dans le but d'amener les politiques à penser long terme et risques globaux[5],[6]. Certaines de ses activités sont financées par la Fondation John-Templeton[4].

Ce groupe a notamment produit une charte applicable au Royaume-Uni similaire à ce qui existait déjà au Pays de Galles visant la préservation des intérêts des générations futures[7].

Notes et références

Notes

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Centre for the Study of Existential Risk » (voir la liste des auteurs).
  1. (en) « It seems a reasonable prediction that some time in this or the next century intelligence will escape from the constraints of biology »

Références

  1. a et b Pascal Lapointe, « Capsules - Étudier la révolte des robots », sur sciencepresse.qc.ca, Agence Science-Presse, .
  2. (en) Michael Kesterton, « Cambridge to open centre for Terminator studies », The Globe and Mail, .
  3. (en) Adi Gaskell, « Risk of a Terminator Style Robot Uprising to be Studied », Technorati, .
  4. a et b (en) « CSER Managing extreme technological risks », sur cser.ac.uk (consulté le ).
  5. (en) « All-Party Parliamentary Group for Future Generations », sur appg-future-gens (consulté le ).
  6. (en) « The Long Time », sur Climate-KIC, (consulté le ).
  7. (en) « Lord John Bird’s Future Generations Bill is “the start of a movement” », sur The Big Issue, (consulté le ).

Voir aussi

Articles connexes

Liens externes

  • (en) Site officielVoir et modifier les données sur Wikidata
  • Notices d'autoritéVoir et modifier les données sur Wikidata :
    • VIAF
    • WorldCat
  • (en) « Risk of robot uprising wiping out human race to be studied », sur BBC News,
  • icône décorative Portail des sciences
  • icône décorative Portail de l’informatique