Елізер Юдковський
Елізер Юдковський | |
---|---|
англ. Eliezer Shlomo Yudkowsky | |
Елізер Юдковський, Стенфорд, 2006 рік | |
Ім'я при народженні | англ. Eliezer Shlomo Yudkowsky |
Народився | 11 вересня 1979 (45 років) США |
Країна | Американець |
Діяльність | дослідник штучного інтелекту, блогер, письменник, інформатик |
Галузь | Етика машин, штучний інтелект |
Заклад | Singularity Institute for Artificial Intelligence |
Відомий завдяки: | Дружній штучний інтелект, фанфік про Гаррі Поттера |
Особ. сторінка | yudkowsky.net |
Елізер Юдковський у Вікісховищі |
Еліезер[1] Шломо Юдковський / Юдковскі (англ. Eliezer Shlomo Yudkowsky; 11 вересня 1979) — американський блогер, письменник, футуролог, фахівець з штучного інтелекту, дослідник проблем технологічної сингулярності. Підтримує створення дружнього штучного інтелекту.[2] Юдковський живе в Берклі, Каліфорнія.
Діяльність
ред.Еліезер Юдковський відомий досягненнями в різних сферах.
Наука
ред.Юдковський є автодидактом (самоуком)[3]. Він не має формальної освіти в галузі штучного інтелекту і не навчався у ВНЗ[4].
Співзасновник та науковий співробітник Інституту Сингулярності по створенню Штучного Інтелекту (SIAI) [5].
Автор публікацій на тему штучного інтелекту. Досліджує ті конструкції штучного інтелекту, які здатні до саморозуміння, самомодифікації й рекурсивного самовдосконалення, а також такі архітектури штучного інтелекту, які будуть володіти стабільною та позитивною структурою мотивації (Дружній штучний інтелект).[5] До кола його наукових інтересів входить теорія прийняття рішень для задач самомодифікації та проблеми Newcomblike.
Крім дослідницької роботи відомий своїми науково-популярними поясненнями складних моделей мовою, доступною широкому колу читачів.
Блогерство
ред.Разом з Робіном Хансоном був одним один з провідних авторів блогу Overcoming Bias [Архівовано 26 січня 2012 у Wayback Machine.].[6]
На початку 2009 року брав участь в організації блогу Less Wrong [Архівовано 16 березня 2014 у Wayback Machine.], націленого на «розвиток раціональності людини та подолання когнітивних спотворень».[3] . Після цього Overcoming Bias став особистим блогом Хансона. Матеріал, представлений на цих блогах, організований у вигляді ланцюжків постів, які змогли залучити тисячі читачів — див. наприклад, ланцюжок «теорія розваг»[1] [Архівовано 4 липня 2014 у Wayback Machine.].
Less Wrong детально розглядався у Business Insider.[7] На Less Wrong посилались зі шпальт The Guardian.[8][9] Less Wrong фігурував у статтях, пов'язаних з технологічною сингулярістю та Інституту Сингулярності по створенню Штучного Інтелекту.[10] Крім того, згадувався в статтях про інтернет-монархістів та нео-реакціонерів.[11]
Фанфікшн
ред.Написав кілька робіт[12] з наукової фантастики, в яких він ілюструє деякі теми, пов'язані з когнітивною наукою та раціональністю. У неакадемічних колах здебільшого відомий як автор фанфіку про альтернативний розвиток подій у світі Гаррі Поттера "Гаррі Поттер і Методи Раціональності" (англ. Harry Potter and the Methods of Rationality). створений під ніком Less Wrong [13]. Дана історія намагається пояснити магічний світ Гаррі Поттера з позиції наукової парадигми, послуговуючись досягненнями когнітивної науки та методів раціонального мислення[3][14]).
Публікації
ред.Оригінал
ред.- Creating Friendly AI [15] (2001)
- Levels of Organization in General Intelligence [16] (2002)
- Coherent Extrapolated Volition [17] (2004)
- Artificial Intelligence as a Positive and Negative Factor in Global Risk[18][19][20] (2008)
- Cognitive Biases Potentially Affecting Judgement of Global Risks[20][21][22] (2008)
- Timeless Decision Theory [Архівовано 19 липня 2014 у Wayback Machine.] [23][24] (2010)
- Complex Value Systems are Required to Realize Valuable Futures (2011)
- Tiling Agents for Self-Modifying AI, and the Löbian Obstacle [Архівовано 29 жовтня 2013 у Wayback Machine.] (2013)
- A Comparison of Decision Algorithms on Newcomblike Problems [Архівовано 7 травня 2015 у Wayback Machine.] (2013)
- An Intuitive Explanation of Bayes' Theorem [Архівовано 16 листопада 2013 у Wayback Machine.] [25](науково-популярна стаття).
Посилання
ред.- Персональний сайт [Архівовано 8 грудня 2011 у Wayback Machine.]
- Less Wrong [Архівовано 16 березня 2014 у Wayback Machine.] — блог, присвячений розвитку мистецтва людської раціональності, співзасновником якого є Юдковський.
- Український переклад фанфіку "Гаррі Поттер і Методи раціональності" [Архівовано 16 лютого 2022 у Wayback Machine.]
- Сайт фанфіку "Гаррі Поттер та Методи раціонального мислення" [Архівовано 30 травня 2014 у Wayback Machine.]
- Predicting The Future: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Глава про Юдковського в книзі «21st Century Technology and Its Radical Implications for Mind, Society and Reality» [Архівовано 5 червня 2014 у Wayback Machine.]
- Біографія на сайті KurzweilAI.net
- Біографія на сайті Singularity Institute
- Overcoming Bias [Архівовано 5 січня 2007 у Wayback Machine.] — Блог, дописувачем якого Юдковський був до 2009 року.
Див. також
ред.Примітки
ред.- ↑ персональний твіт про те, як читається ім'я. Архів оригіналу за 6 березня 2020.
- ↑ Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архів оригіналу за 27 червня 2009. Процитовано 16 липня 2009.
- ↑ а б в Singularity Rising [Архівовано 9 липня 2014 у Wayback Machine.], by James Miller
- ↑ GDay World #238: Eliezer Yudkowsky. The Podcast Network. Архів оригіналу за 17 липня 2007. Процитовано 26 липня 2009.
- ↑ а б Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. с. 599. ISBN 0-670-03384-7.
- ↑ Overcoming Bias: About. Robin Hanson. Архів оригіналу за 26 січня 2012. Процитовано 1 лютого 2012.
- ↑ Miller, James (28 липня 2011). You Can Learn How To Become More Rational. Business Insider. Архів оригіналу за 10 серпня 2018. Процитовано 25 березня 2014.
- ↑ Burkeman, Oliver (8 липня 2011). This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten?. The Guardian. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
- ↑ Burkeman, Oliver (9 березня 2012). This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity?. The Guardian. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
- ↑ Tiku, Natasha (25 липня 2012). Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. BetaBeat. Архів оригіналу за 12 березня 2014. Процитовано 25 березня 2014.
- ↑ Finley, Klint (22 листопада 2013). Geeks for Monarchy: The Rise of the Neoreactionaries. TechCrunch. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
- ↑ Архівована копія. Архів оригіналу за 8 вересня 2015. Процитовано 1 червня 2014.
{{cite web}}
: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title (посилання) - ↑ Архівована копія. Архів оригіналу за 12 травня 2014. Процитовано 1 червня 2014.
{{cite web}}
: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title (посилання) - ↑ "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire". Архів оригіналу за 23 червня 2013. Процитовано 1 червня 2014.
- ↑ перекл. "Створення дружнього штучного інтелекту"
- ↑ перекл. "Рівні організації універсального інтелекту"
- ↑ перекл. «Когерентна екстрапольована воля»
- ↑ перекл. "Штучний інтелект як позитивний та негативний чинник глобального ризику"
- ↑ Artificial Intelligence as a Positive and Negative Factor in Global Risk (PDF). Singularity Institute for Artificial Intelligence. Архів оригіналу (PDF) за 6 серпня 2009. Процитовано 28 липня 2009.
- ↑ а б Bostrom, Nick, ред. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. с. 91-119, 308—345. ISBN 978-0-19-857050-9.
- ↑ перекл. "Когнітивні спотворення в оцінці глобальних ризиків"
- ↑ Cognitive Biases Potentially Affecting Judgement of Global Risks (PDF). Singularity Institute for Artificial Intelligence. Архів оригіналу (PDF) за 13 червня 2012. Процитовано 1 червня 2014.
- ↑ перекл. "Позачасова теорія прийняття рішень"
- ↑ Eliezer Yudkowsky Profile. Accelerating Future. Архів оригіналу за 4 липня 2012. Процитовано 1 червня 2014.
- ↑ перекл. "Інтуїтивне пояснення теореми Байеса"