LessWrong
Fondation | |
---|---|
Prédécesseur |
Overcoming Bias (d) |
Type |
---|
Fondateur | |
---|---|
Site web |
(en) www.lesswrong.com |
LessWrong, écrit également Less Wrong, est un blogue communautaire et un forum discutant entre autres de biais cognitifs, de philosophie, de psychologie, d'économie, de rationalité et d'intelligence artificielle[1],[2].
Objectif
LessWrong promeut les changements de mode de vie devant conduire à plus de rationalité et à l'amélioration de soi. Les postes ont souvent pour objectif d'améliorer l'évaluation des preuves et d'éviter les biais cognitifs, par exemple grâce à l'utilisation du théorème de Bayes comme outil d'aide à la décision[2]. L'accent est aussi mis sur les barrières psychologiques qui entravent une bonne prise de décision, notamment le conditionnement de la peur[3] et les biais cognitifs étudiés par le psychologue Daniel Kahneman[4]. LessWrong s'intéresse également au transhumanisme, aux menaces existentielles et à la singularité[5].
Historique
LessWrong a été développé à partir de Overcoming Bias, un blog consacré à la rationalité humaine, qui a débuté en avec comme principaux contributeurs le théoricien de l’intelligence artificielle Eliezer Yudkowsky et l’économiste Robin Hanson. En , les publications de Yudkowsky ont été utilisées pour créer le blog communautaire LessWrong, et Overcoming Bias est devenu le blog personnel de Hanson[6]. En 2013, une portion significative de la communauté rationaliste d'est tournée vers le blog Slate Star Codex de Scott Alexander[7].
Intelligence artificielle
LessWrong héberge beaucoup de contenu sur l'intelligence artificielle (IA), notamment sur l'alignement, la sécurité de l'IA[8],[9], et la conscience artificielle. LessWrong et le mouvement qui l'entoure axé sur l'IA sont au cœur du livre de 2019 The AI Does Not Hate You (« L'IA ne vous déteste pas ») de Tom Chivers[10],[11],[12].
Altruisme efficace
LessWrong a joué un rôle important dans le développement du mouvement de l'altruisme efficace[13], et les deux communautés sont étroitement liées[14]. Lors d’un sondage réalisé en 2016 auprès des utilisateurs de LessWrong, 664 des 3 060 répondants, soit 21,7 %, s'identifiaient comme des altruistes efficaces. Un sondage distinct réalisé en 2014 auprès des altruistes efficaces a révélé que 31 % des répondants avaient entendu parler de l'altruisme efficace pour la première fois via LessWrong[14], bien que ce chiffre soit tombé à 8,2 % en 2020[15].
Basilic de Roko
En , Roko, contributeur de LessWrong posta une expérience de pensée similaire au pari de Pascal, dans laquelle un futur système d'intelligence artificielle, par ailleurs bienveillant, torture des simulations de personnes qui n'ont pas œuvré pour le mettre en place. Elle est connue sous le nom de « basilic de Roko », car le seul fait d'entendre parler de cette idée inciterait davantage l'hypothétique intelligence artificielle à recourir à ce chantage[16],[5].
Mouvement néo-réactionnaire
Lorsque LessWrong s'est séparé de Overcoming Bias, le site a attiré certains néo-réactionnaires[17],[18],[19] avec des discussions autour de l'eugénisme et de la psychologie évolutionniste[20]. Yudkowsky a cependant fortement rejeté l'idéologie néo-réactionnaire[21],[22], et un sondage effectué en 2016 a rapporté que moins de 1% des utilisateurs s'identifiaient comme néo-réactionnaires[23].
Contributeurs notables
LessWrong a été associé à plusieurs contributeurs influents. Le fondateur Eliezer Yudkowsky a créé la plateforme pour promouvoir la rationalité et sensibiliser aux risques potentiels liés à l'IA[24]. Scott Alexander est devenu l'un des auteurs les plus populaires du site avant de lancer son propre blog, Slate Star Codex, où il a contribué à des discussions sur la sécurité de l'IA et la rationalité[24].
Parmi les autres utilisateurs notables de LessWrong figurent Paul Christiano, Wei Dai et Zvi Mowshowitz. Une sélection de publications de ces contributeurs et d'autres, choisies à travers un processus d'examen communautaire[25], ont été publiées dans les recueils A Map That Reflects the Territory[26] et The Engines of Cognition[27],[25],[28].
Références
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « LessWrong » (voir la liste des auteurs).
- ↑ « Less Wrong FAQ », LessWrong
- Miller, « You Can Learn How To Become More Rational », Business Insider, (consulté le )
- ↑ Oliver Burkeman, « This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten? », (consulté le )
- ↑ Oliver Burkeman, « This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity? », (consulté le )
- Tiku, « Faith, Hope, and Singularity: Entering the Matrix with New York’s Futurist Set », Observer, (consulté le )
- ↑ « Where did Less Wrong come from? (LessWrong FAQ) » (consulté le )
- ↑ (en) Gideon Lewis-Kraus, « Slate Star Codex and Silicon Valley’s War Against the Media », The New Yorker, (ISSN 0028-792X, lire en ligne, consulté le )
- ↑ (en) Tom Chivers, « What we’ve learned about the robot apocalypse from the OpenAI debacle », Semafor, (lire en ligne, consulté le )
- ↑ (en) Cal Newport, « Can an A.I. Make Plans? », The New Yorker, (ISSN 0028-792X, lire en ligne, consulté le )
- ↑ (en) « W&N wins Buzzfeed science reporter's debut after auction », sur The Bookseller (consulté le )
- ↑ (en) Tom Chivers, The AI does not hate you: the rationalists and their quest to save the world, Weidenfeld & Nicolson, (ISBN 978-1-4746-0877-0 et 978-1-4746-0878-7, OCLC on1091650885, lire en ligne)
- ↑ (en) James Marriott, « The AI Does Not Hate You by Tom Chivers review — why the nerds are nervous », sur www.thetimes.com, (consulté le )
- ↑ (en) Katarzyna de Lazari-Radek et Peter Singer, Utilitarianism: a very short introduction, Oxford University Press, (ISBN 978-0-19-872879-5)
- (en) Tom Chivers, The AI does not hate you: the rationalists and their quest to save the world, Weidenfeld & Nicolson, (ISBN 978-1-4746-0877-0 et 978-1-4746-0878-7, OCLC on1091650885, lire en ligne), chap. 38 (« The Effective Altruists »)
- ↑ (en) « EA Survey 2020: How People Get Involved in EA », sur Effective Altruism Forum,
- ↑ Love, Dylan, « WARNING: Just Reading About This Thought Experiment Could Ruin Your Life », Business Insider, (consulté le )
- ↑ Klint Finley, « Geeks for Monarchy: The Rise of the Neoreactionaries »,
- ↑ Riggio, « The Violence of Pure Reason: Neoreaction: A Basilisk », Social Epistemology Review and Reply Collective, vol. 5, no 9, , p. 34–41 (ISSN 2471-9560, lire en ligne) :
« The embryo of the movement lived in the community pages of Yudkowsky’s blog LessWrong, a website dedicated to refining human rationality. »
- ↑ Mark Siemons, « Neoreaktion im Silicon Valley: Wenn Maschinen denken »,
- ↑ Keep, « The Strange and Conflicting World Views of Silicon Valley Billionaire Peter Thiel », Fusion, (consulté le ) : « Thanks to LessWrong’s discussions of eugenics and evolutionary psychology, it has attracted some readers and commenters affiliated with the alt-right and neoreaction, that broad cohort of neofascist, white nationalist and misogynist trolls. »
- ↑ Riggio, « The Violence of Pure Reason: Neoreaction: A Basilisk », Social Epistemology Review and Reply Collective, vol. 5, no 9, , p. 34–41 (ISSN 2471-9560, lire en ligne) :
« Land and Yarvin are openly allies with the new reactionary movement, while Yudkowsky counts many reactionaries among his fanbase despite finding their racist politics disgusting. »
- ↑ Eliezer Yudkowsky, « Untitled », Optimize Literally Everything (blog), (consulté le )
- ↑ (en) Patrik Hermansson, David Lawrence, Joe Mulhall et Simon Murdoch, The international alt-right: fascism for the 21st century?, Routledge, coll. « Routledge studies in fascism and the far right », (ISBN 978-1-138-36340-3 et 978-1-138-36386-1)
- (en) The Technological Singularity: Managing the Journey, Springer Berlin Heidelberg : Imprint: Springer, coll. « The Frontiers Collection », (ISBN 978-3-662-54033-6), p. 225-226
- (en) William Gasarch, « Review of A Map that Reflects the Territory: Essays by the LessWrong Community Author: LessWrong », ACM SIGACT News, vol. 53, no 1, , p. 13–24 (ISSN 0163-5700, DOI 10.1145/3532737.3532741, lire en ligne, consulté le )
- ↑ (en) A Map That Reflects the Territory: Essays by the LessWrong Community, Center for Applied Rationality, (ISBN 978-1-7361285-0-3, lire en ligne)
- ↑ (en) LessWrong, The Engines of Cognition: Essays by the LessWrong Community, Center for Applied Rationality, (ISBN 978-1-7361285-1-0, lire en ligne)
- ↑ (en) William Gasarch, « Review of "The Engines of Cognition: Essays by the Less Wrong Community », ACM SIGACT News, (lire en ligne)
Liens externes
- Site officiel
- Ingres, « 2016 Survey Results », (consulté le ) — sondage d'opinions sur la sous-culture de LessWrong
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « LessWrong » (voir la liste des auteurs).