Елізер Юдковський

(Перенаправлено з Елізер Юдковскі)

Елізер Юдковський
англ. Eliezer Shlomo Yudkowsky
Елізер Юдковський, Стенфорд, 2006 рік
Елізер Юдковський, Стенфорд, 2006 рік
Елізер Юдковський, Стенфорд, 2006 рік
Ім'я при народженні англ. Eliezer Shlomo Yudkowsky
Народився 11 вересня 1979(1979-09-11) (44 роки)
США США
Країна Американець
Діяльність дослідник штучного інтелекту, блогер, письменник, інформатик
Галузь Етика машин, штучний інтелект
Заклад Singularity Institute for Artificial Intelligence
Відомий завдяки: Дружній штучний інтелект, фанфік про Гаррі Поттера
Особ. сторінка yudkowsky.net

CMNS: Елізер Юдковський у Вікісховищі

Еліезер[1] Шломо Юдковський / Юдковскі (англ. Eliezer Shlomo Yudkowsky; 11 вересня 1979) — американський блогер, письменник, футуролог, фахівець з штучного інтелекту, дослідник проблем технологічної сингулярності. Підтримує створення дружнього штучного інтелекту.[2] Юдковський живе в Берклі, Каліфорнія.

Діяльність ред.

Еліезер Юдковський відомий досягненнями в різних сферах.

Наука ред.

Юдковський є автодидактом (самоуком)[3]. Він не має формальної освіти в галузі штучного інтелекту і не навчався у ВНЗ[4].

Співзасновник та науковий співробітник Інституту Сингулярності по створенню Штучного Інтелекту (SIAI) [5].

Автор публікацій на тему штучного інтелекту. Досліджує ті конструкції штучного інтелекту, які здатні до саморозуміння, самомодифікації й рекурсивного самовдосконалення, а також такі архітектури штучного інтелекту, які будуть володіти стабільною та позитивною структурою мотивації (Дружній штучний інтелект).[5]:420 До кола його наукових інтересів входить теорія прийняття рішень для задач самомодифікації та проблеми Newcomblike.

Крім дослідницької роботи відомий своїми науково-популярними поясненнями складних моделей мовою, доступною широкому колу читачів.

Блогерство ред.

Разом з Робіном Хансоном був одним один з провідних авторів блогу Overcoming Bias [Архівовано 26 січня 2012 у Wayback Machine.].[6]

На початку 2009 року брав участь в організації блогу Less Wrong [Архівовано 16 березня 2014 у Wayback Machine.], націленого на «розвиток раціональності людини та подолання когнітивних спотворень».[3]:37. Після цього Overcoming Bias став особистим блогом Хансона. Матеріал, представлений на цих блогах, організований у вигляді ланцюжків постів, які змогли залучити тисячі читачів  — див. наприклад, ланцюжок «теорія розваг»[1] [Архівовано 4 липня 2014 у Wayback Machine.].

Less Wrong детально розглядався у Business Insider.[7] На Less Wrong посилались зі шпальт The Guardian.[8][9] Less Wrong фігурував у статтях, пов'язаних з технологічною сингулярістю та Інституту Сингулярності по створенню Штучного Інтелекту.[10] Крім того, згадувався в статтях про інтернет-монархістів та нео-реакціонерів.[11]

Фанфікшн ред.

Написав кілька робіт[12] з наукової фантастики, в яких він ілюструє деякі теми, пов'язані з когнітивною наукою та раціональністю. У неакадемічних колах здебільшого відомий як автор фанфіку про альтернативний розвиток подій у світі Гаррі Поттера "Гаррі Поттер і Методи Раціональності" (англ. Harry Potter and the Methods of Rationality). створений під ніком Less Wrong [13]. Дана історія намагається пояснити магічний світ Гаррі Поттера з позиції наукової парадигми, послуговуючись досягненнями когнітивної науки та методів раціонального мислення[3][14]).

Публікації ред.

Оригінал ред.

Посилання ред.

Див. також ред.

Примітки ред.

  1. персональний твіт про те, як читається ім'я. Архів оригіналу за 6 березня 2020.
  2. Singularity Institute for Artificial Intelligence: Team. Singularity Institute for Artificial Intelligence. Архів оригіналу за 27 червня 2009. Процитовано 16 липня 2009.
  3. а б в Singularity Rising [Архівовано 9 липня 2014 у Wayback Machine.], by James Miller
  4. GDay World #238: Eliezer Yudkowsky. The Podcast Network. Архів оригіналу за 17 липня 2007. Процитовано 26 липня 2009.
  5. а б Kurzweil, Ray (2005). The Singularity Is Near. New York, US: Viking Penguin. с. 599. ISBN 0-670-03384-7.
  6. Overcoming Bias: About. Robin Hanson. Архів оригіналу за 26 січня 2012. Процитовано 1 лютого 2012.
  7. Miller, James (28 липня 2011). You Can Learn How To Become More Rational. Business Insider. Архів оригіналу за 10 серпня 2018. Процитовано 25 березня 2014.
  8. Burkeman, Oliver (8 липня 2011). This column will change your life: Feel the ugh and do it anyway. Can the psychological flinch mechanism be beaten?. The Guardian. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
  9. Burkeman, Oliver (9 березня 2012). This column will change your life: asked a tricky question? Answer an easier one. We all do it, all the time. So how can we get rid of this eccentricity?. The Guardian. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
  10. Tiku, Natasha (25 липня 2012). Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set It's the end of the world as we know it, and they feel fine. BetaBeat. Архів оригіналу за 12 березня 2014. Процитовано 25 березня 2014.
  11. Finley, Klint (22 листопада 2013). Geeks for Monarchy: The Rise of the Neoreactionaries. TechCrunch. Архів оригіналу за 26 березня 2014. Процитовано 25 березня 2014.
  12. Архівована копія. Архів оригіналу за 8 вересня 2015. Процитовано 1 червня 2014.{{cite web}}: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title (посилання)
  13. Архівована копія. Архів оригіналу за 12 травня 2014. Процитовано 1 червня 2014.{{cite web}}: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title (посилання)
  14. "No Death, No Taxes: The libertarian futurism of a Silicon Valley billionaire". Архів оригіналу за 23 червня 2013. Процитовано 1 червня 2014.
  15. перекл. "Створення дружнього штучного інтелекту"
  16. перекл. "Рівні організації універсального інтелекту"
  17. перекл. «Когерентна екстрапольована воля»
  18. перекл. "Штучний інтелект як позитивний та негативний чинник глобального ризику"
  19. Artificial Intelligence as a Positive and Negative Factor in Global Risk (PDF). Singularity Institute for Artificial Intelligence. Архів оригіналу (PDF) за 6 серпня 2009. Процитовано 28 липня 2009.
  20. а б Bostrom, Nick, ред. (2008). Global Catastrophic Risks. Oxford, UK: Oxford University Press. с. 91-119, 308—345. ISBN 978-0-19-857050-9.
  21. перекл. "Когнітивні спотворення в оцінці глобальних ризиків"
  22. Cognitive Biases Potentially Affecting Judgement of Global Risks (PDF). Singularity Institute for Artificial Intelligence. Архів оригіналу (PDF) за 13 червня 2012. Процитовано 1 червня 2014.
  23. перекл. "Позачасова теорія прийняття рішень"
  24. Eliezer Yudkowsky Profile. Accelerating Future. Архів оригіналу за 4 липня 2012. Процитовано 1 червня 2014.
  25. перекл. "Інтуїтивне пояснення теореми Байеса"