Машинна етика (або машинна мораль, обчислювальна мораль або обчислювальна етика) є частиною етики штучного інтелекту, яка стосується надання моральної поведінки машинам, що використовують штучний інтелект, інакше відомих як інтелектуальні агенти.[1] Машинна етика відрізняється від інших етичних сфер, пов'язаних з технікою та технологіями. Машину етику не слід плутати з комп'ютерною етикою, що орієнтована на використання комп'ютера людьми. Її також слід відрізняти від філософії технології, яка стосується значних соціальних наслідків технології.[2]

Історія ред.

До 21 століття машинна етика в основному була предметом науково-фантастичної літератури, головним чином через обмежені можливості обчислювальної техніки та штучного інтелекту. Хоча з тих пір визначення «машинної етики» значно еволюціонувало, сам термін був введений Мітчеллом Уолдропом у 1987 році у статті журналу AI Magazine, яка звалася «Питання відповідальності» :

"Позаяк, одне, що видно з наведеного вище обговорення, полягає в тому, що інтелектуальні машини будуть втілювати цінності, ідеї та цілі, незалежно від того, планують їх програмісти свідомо чи ні. Таким чином, коли комп'ютери та роботи стають дедалі більш інтелектуальними, надзвичайно важливо, щоб ми ретельно і чітко продумували, які ці вбудовані цінності. Можливо, нам і справді потрібна теорія і практика машинної етики, в дусі трьох законів робототехніки А.Азімова ".[3]

У книзі На шляху до машинної етики[4], яка була представлена на семінарі AAAI з питань агентських організацій: теорія та практика[5] у 2004 році, були викладені теоретичні основи машинної етики.

Питання про впровадження етичного виміру в автономних системах розглянули на симпозіумі AAAI з питань машинної етики восени 2005 року, де дослідники вперше зібрались.[6] Різноманітні перспективи розвитку цього нового терміну можна знайти у зібраному виданні «Машинна етика»[7], що надруковане із матеріалів симпозіуму AAAI восени 2005 року з машинної етики.

У 2007 р. у журналі AI Magazine була представлена стаття Машинна етика: створення етичного інтелектуального агента[8], в якій обговорювалося значення машинної етики, та необхідність в машинах, що чітко представляють етичні принципи, та проблеми, що стоять перед тими, хто працює над машинною етикою. Вона також продемонструвала, що машина, принаймні в обмеженій області, може абстрагувати етичний принцип від прикладів етичних суджень і використовувати цей принцип для управління власною поведінкою.

У 2009 р. видавництво Оксфордського університету опублікувало «Моральні машини», «Навчання роботів прямо з помилки»[9], яку рекламували як «першу книгу, що вивчає проблему побудови штучних моральних агентів, глибоко досліджуючи природу прийняття рішень та етики людини». Тут процитовано більш як 450 джерел, близько 100 з яких стосувалися основних питань машинної етики.

У 2011 р. видавництво Кембриджського університету опублікувало збірник нарисів про машину етику під редакцією Майкла та Сьюзен Лі Андерсон[7], які також відредагували спеціальний випуск IEEE Intelligent Systems на цю тему в 2006 р.[10] Збірка складається з питань, пов'язаних з проблемами додавання етичних принципів машинам.[11]

У 2014 році Управління морських досліджень США оголосило, що протягом п'яти років розподілить 7,5 мільйона доларів грантів університетським дослідникам для вивчення питань машинної етики автономних роботів.[12] Книга Ніка Бострома Суперінтелект: Шляхи, Небезпеки, Стратегії, в якій він розглянув етику машин як «найважливішу … проблему, з якою коли-небудь стикалося людство», досягла 17 місця у списку найбільш продаваних наукових книг у переліку «Нью-Йорк Таймс».[13]

У 2016 році Європейський парламент опублікував документ[14] (22-сторінковий PDF), щоб заохотити Комісію зайнятися питанням правового статусу роботів.[15] Цей документ включав розділи, що стосуються юридичних зобов'язань роботів, за якими відповідальність встановлювалася пропорційно рівню автономності роботів. Документ також ставить під сумнів кількість робочих місць, які можуть бути замінені роботами зі ШІ.[16]

Визначення ред.

Джеймс Х. Мур, один з теоретиків-новаторів у галузі комп'ютерної етики, визначає чотири типи етичних роботів. Як потужний дослідник вивчення філософії штучного інтелекту, філософії розуму, філософії науки та логіки, Мур визначає машини як агенти етичного впливу, неявні етичні агенти, явні етичні агенти або повністю етичні агенти. Машина може бути кількома агентами.[17]

  • Етичні агенти впливу: це машинні системи, які здійснюють або не здійснюють етичний вплив за призначенням. У той же час ці агенти можуть діяти неетично. Мур наводить гіпотетичний приклад, який називається «агент Гудмана», названий на честь філософа Нельсона Гудмана. Агент Гудмана порівнює дати, але має помилку тисячоліття. Ця помилка виникла через програмістів, які представляли дати лише з двома останніми цифрами року. Тож будь-які дати після 2000 року будуть вважатися більш ранніми ніж ті, що були наприкінці ХХ століття. Таким чином, агент Гудмана був етичним агентом впливу до 2000 року, а неетичним агентом впливу після цього.
  • Неявні етичні агенти: Для розгляду людської безпеки, ці агенти запрограмовані бути відмовостійкими, або мають вбудовану доброчесність. Вони мають не цілком етичний характер, а скоріше запрограмовані на уникнення неетичних результатів.
  • Явні етичні агенти: це машини, які здатні обробляти сценарії та діяти за етичними рішеннями. Машини, які мають алгоритми етичної поведінки.
  • Повноцінні етичні агенти: ці машини подібні до явних етичних агентів, оскільки вони можуть приймати етичні рішення. Однак вони також містять метафізичні особливості людини (тобто мають свободу волі, свідомість та навмисність).

(Див. Моральна відповідальність штучних систем[en].)

Основні напрямки машинної етики ред.

Проблема управління ШІ ред.

Деякі вчені, такі як філософ Нік Бостром та дослідник ШІ Стюарт Рассел, стверджують, що якщо ШІ перевершить людство в загальному інтелекті і стане " надінтелектуальним ", тоді цей новий суперінтелект може стати надто потужним та некерованим: подібно до того, як залежить доля гірської горили від людської доброзичливості, так, можливо, доля людства залежатиме від дій майбутнього машинного суперінтелекту.[18] У своїх відповідних книгах " Суперінтелект " і "Сумісність з людьми " обидва вчені стверджують, що, хоча існує велика невизначеність щодо майбутнього ШІ, ризик для людства є досить високим, щоб розпочати діяти вже в даний час.

Це і представляє проблему управління ШІ: як створити інтелектуального агента, який допоможе його творцям, уникаючи разом з тим ненавмисної побудови суперінтелекту, що матиме змогу зашкодити його творцям. Небезпека неправильного проектування контролю «з першого разу» полягає в тому, що суперінтелект зможе захопити владу над своїм оточенням і перешкодити людям вимкнути його. Можливі стратегії управління ШІ включають «контроль здібностей» (обмеження здатності ШІ впливати на світ) та «мотиваційний контроль» (побудова ШІ, цілі якого узгоджуються з людськими цінностями). Існує ряд організацій, які досліджують проблему управління ШІ, зокрема Інститут майбутнього людства, Інститут досліджень машинного інтелекту, Центр сумісного з людьми штучного інтелекту та Інститут майбутнього життя.

Алгоритми та навчання ред.

Обговорювались парадигми ШІ, особливо щодо їх ефективності та упередженості. Нік Бостром та Еліезер Юдковський надають аргументи щодо дерев ухвалення рішень (таких як ID3) через нейронні мережі та генетичні алгоритми на тій підставі, що дерева рішень підкоряються сучасним соціальним нормам прозорості та передбачуваності (наприклад, судовий прецедент).[19] На противагу цьому Кріс Сантос-Ланг аргументував свою підтримку нейронних мереж та генетичних алгоритмів на тій підставі, що нормам будь-якого віку необхідно дозволити змінюватися, і що природна нездатність повністю задовольнити ці конкретні норми має важливе значення для того, щоб зробити людей менш вразливими, ніж машини до злочинних «хакерів».[20][21]

У 2009 році в експерименті в Лабораторії інтелектуальних систем в Політехнічному університеті Ecole в Лозанні, Швейцарія, роботам зі ШІ було запрограмовано співпрацю між собою та завданням пошуку корисного ресурсу, уникаючи отруйних ресурсів.[22] Під час експерименту роботи були згруповані в клани, а цифровий генетичний код успішних членів був використаний для наступного покоління, типу алгоритму, відомого як генетичний алгоритм. Після 50 послідовних поколінь у ШІ члени одного клану виявили, як відрізнити корисний ресурс від отруйного. Потім роботи навчились брехати один одному, намагаючись накопичити корисний ресурс на відміну від інших роботів.[23] У тому ж експерименті ті самі роботи ШІ також навчились поводитися безкорисливо і сигналізували про небезпеку для інших роботів, а також рятуванню інших роботів ціною власної загибелі.[24] Наслідки цього експерименту були оскаржені дослідниками машинними етики. В експерименті Ecole Polytechnique Fédérale цілі роботів були запрограмовані на «кінцеві». На відміну від людських мотивів які, як правило, вимагають нескінченного навчання.

Автономні системи озброєння ред.

У 2009 році науковці та технічні експерти відвідали конференцію, на якій обговорили потенційний вплив роботів та комп'ютерів та вплив гіпотетичної можливості того, що вони можуть стати самодостатніми та здатними приймати власні рішення. Вони обговорили можливість та ступінь, в якій комп'ютери та роботи можуть отримати будь-який рівень автономності, і наскільки вони можуть використовувати такі здібності, щоб представляти будь-яку загрозу чи небезпеку для людства. Експерти відзначили, що деякі машини отримали різні форми напівавтономії, включаючи можливість самостійно знаходити джерела живлення та можливість самостійно вибирати цілі для збройної атаки. Також зазначили, що деякі комп'ютерні віруси можуть ухилитися від ліквідації та досягли «інтелекту тарганів». Та зауважили, що самосвідомість, як у науковій фантастиці, мабуть, малоймовірна, але існують інші потенційні небезпеки та підводні камені.[25]

Деякі експерти та науковці ставлять під сумнів використання роботів для військового бою, особливо коли таким роботам надається певна ступінь автономних функцій.[26] Військово-морські сили США профінансували звіт, який вказує, що в міру ускладнення військових роботів слід приділяти більше уваги наслідкам їх здатності приймати самостійні рішення.[27] Президент Асоціації сприяння розвитку штучного інтелекту доручив провести дослідження, щоб, більш детально розглянути це питання.[28] Вони вказують на такі програми, як пристрій для вивчення мови, який може імітувати людську взаємодію.

Інтеграція штучного загального інтелекту з суспільством ред.

Проведена попередня робота над методами інтеграції штучного загального інтелекту (повноцінних етичних агентів) з існуючими правовими та соціальними нормами. Підходи були зосереджені на врахуванні їх юридичного становища та прав.[29]

Упередження машинного навчання ред.

Масиви даних (так звані Big data) та алгоритми машинного навчання стали популярними серед багатьох галузей, включаючи Інтернет-рекламу, кредитні рейтинги та навіть кримінальні вироки, з обіцянкою забезпечити більш об'єктивні результати, керування даними, але разом з тим визначені потенційним джерелом для продовження соціальної нерівності та дискримінації.[30][31] Дослідження 2015 року показало, що жінкам рідше показуватимуть оголошення про роботу з високим рівнем доходу за допомогою Google AdSense. Інше дослідження показало, що служба доставки Amazon того ж дня була навмисно недоступна в чорних кварталах. І Google, і Amazon не змогли об'єднати ці випадки в одне питання, але натомість пояснили, що результати були наслідками алгоритмів чорного ящика, які вони використовували.

Судова система США почала використовувати програмне забезпечення кількісної оцінки ризику під час прийняття рішень, пов'язаних із звільненням людей під заставу та призначенням покарання, намагаючись бути більш справедливим та зменшити і без того високий рівень ув'язнень. Ці інструменти аналізують кримінальну історію обвинуваченого та інші ознаки. У дослідженні 7000 осіб, заарештованих у окрузі Брауард, штат Флорида, лише 20 % осіб, яким прогнозувалося вчинення злочину, використовуючи систему оцінки ризику в окрузі, вчинили його.[31] У звіті ProPublica за 2016 р. було проаналізовано оцінки ризику рецидиву, розраховані за допомогою одного з найбільш часто використовуваних інструментів — системи Northpointe COMPAS, та розглянуто результати за два роки. Звіт виявив, що лише 61 % з тих, кого вважають особами з високим ризиком, здійснили додаткові злочини протягом вказаного періоду. У звіті також зазначається, що афроамериканським підсудним набагато частіше виставляли оцінки високого ризику порівняно з білими підсудними.

У 2016 році Робоча група адміністрації Обами — наглядач за різними регуляторними рамками щодо Big data — випустила звіти, в яких аргументується «потенціал кодування дискримінації в автоматизованих рішеннях» і закликає до «рівних можливостей за проектом» для таких додатків, як кредит рейтинг.[32][33] Звіти заохочують дискусії серед політиків, громадян та науковців, але визнають, що вони не мають потенційного рішення для кодування упередженості та дискримінації в алгоритмічні системи

Етичні рамки та практики ред.

У березні 2018 року, намагаючись вирішити зростаючі занепокоєння щодо впливу машинного навчання на права людини, Світовий економічний форум та Рада з прав людини Глобального майбутнього опублікували довідку [Архівовано 23 січня 2021 у Wayback Machine.] з докладними рекомендаціями щодо того, як найкраще запобігти дискримінаційним результатам машинного навчання.[34] Світовий економічний форум розробив чотири рекомендації, засновані на Керівних принципах прав людини ООН, щоб допомогти вирішити та запобігти дискримінаційним результатам машинного навчання.

Рекомендації Світового економічного форуму такі:[34]

  1. Активна інклюзія: розробники та дизайнери додатків для машинного навчання повинні активно шукати різноманітні вхідні дані, особливо норми та цінності конкретних груп населення, на які впливає вихід систем ШІ.
  2. Чесність: Люди, які беруть участь у концептуалізації, розробці та впровадженні систем машинного навчання, повинні розглянути, яке визначення справедливості найкраще стосується їх контексту та застосування, і визначити його пріоритетом в архітектурі системи машинного навчання та в показниках її оцінки.
  3. Право на розуміння: Залучення систем машинного навчання до процесу прийняття рішень, що стосується індивідуальних прав, повинно розкриватися, а системи повинні мати можливість надавати пояснення щодо прийняття ними рішень, які є зрозумілими для кінцевих користувачів та перевіряються компетентним органом влади. Там, де це неможливо і ставляться на карту права, керівники у розробці, впровадженні та регулюванні технологій машинного навчання повинні поставити під сумнів, чи слід їх використовувати чи ні
  4. Доступ до компенсації: Керівники, дизайнери та розробники систем машинного навчання несуть відповідальність за виявлення потенційних негативних наслідків їхніх прав на права людини. Вони повинні зробити осяжними способи відшкодування для тих, хто постраждав від неоднакових наслідків, і встановити процеси для своєчасного відшкодування будь-яких дискримінаційних результатів.

У січні 2020 року Центр Інтернету та суспільства Беркмана Клейна Гарвардського університету опублікував мета-дослідження з 36 відомих наборів принципів для ШІ, визначивши вісім ключових тем: приватність, підзвітність, безпека та охорона, прозорість та пояснюваність, справедливість та недискримінація, людський контроль над технологіями, професійна відповідальність та просування людських цінностей.[35] Подібне мета-дослідження було проведене дослідниками Швейцарського федерального технологічного інституту в Цюріху в 2019 році.[36]

Підходи ред.

Було зроблено кілька спроб зробити етику обчислюваною або, принаймні, формальною. Тоді як Три закони робототехніки Айзека Азімова, як правило, не вважаються придатними для штучного морального агента,[37] було вивчено, чи можна використовувати категоричний імператив Канта.[38] Однак було зазначено, що цінність людини в деяких аспектах дуже складна.[39] Явним шляхом подолання цього ускладнення є отримання людських цінностей безпосередньо від людей за допомогою якогось механізму, наприклад шляхом їх вивчення.[40][41][42] Інший підхід полягає в тому, щоб поточні етичні міркування базувалися на попередніх подібних ситуаціях. Це називається казуїстикою, і вона може бути реалізована шляхом досліджень в Інтернеті. Консенсус з мільйона минулих рішень призведе до нового рішення, яке залежить від демократії.[8] Однак, разом з тим, це може призвести до рішень, що відображають упередження та неетичну поведінку, які проявляються у суспільстві. Негативні наслідки цього підходу можна побачити в Tay (бот) Microsoft, де балакун навчився повторювати расистські та сексуально заряджені повідомлення, надіслані користувачами Twitter.[43]

В одному з експериментів, що пропонується читачу, мислення фокусується на Джині Големі з необмеженими можливостями. Цей Джин заявляє, що він повернеться через 50 років, і вимагає, щоб він отримав певний набір моралі, на основі якого він потім діятиме. Мета цього експерименту — розпочати дискусію про те, як найкраще впоратись із визначенням повного набору етики, яку можуть зрозуміти комп'ютери.[44]

У художній літературі ред.

У науковій фантастиці фільми та романи давно розглядали проблеми існування розуму в роботах та машинах.

У фільмі Чаппі (2015) Ніла Бломкампа показано можливий сценарій перенесення своєї свідомісті у комп'ютер.[45] Фільм Ex Machina (2014) Алекса Гарланда зображує андроїда зі штучним інтелектом, який пройшов варіацію тесту Тьюрінга — тесту, який проводили на машині, щоб побачити, чи можна її поведінку відрізнити від поведінки людини. Такі роботи, як Terminator (1984) та The Matrix (1999), включають концепцію машин, що вмикають своїх людських господарів (див. Штучний інтелект).

Айзек Азімов розглядав цю проблему в 1950-х роках у збірці науково-фантастичних оповідань Я, робот. За наполяганням свого редактора Джона Кемпбелла-молодшого він запропонував Три закони робототехніки для управління штучними інтелектуальними системами. Потім велика частина його роботи була проведена, перевіряючи межі трьох його законів, щоб побачити, де вони будуть порушені або де вони створять парадоксальну або непередбачувану поведінку. Його робота свідчить про те, що жоден набір фіксованих законів не може в достатній мірі передбачити всі можливі обставини.[46] У романі Філіпа К. Діка « Чи мріють андроїди про електричних овець»? (1968), він досліджує, що означає бути людиною. У своєму постапокаліптичному сценарії він сумнівався, чи емпатія є цілком людською характеристикою. Його історія стала основою для науково-фантастичного фільму «Той, хто біжить по лезу» (1982).

Пов'язані поняття ред.

Див. також ред.

Примітки ред.

  1. Moor, J.H. (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems. 21 (4): 18—21. doi:10.1109/MIS.2006.80.
  2. Boyles, Robert James. A Case for Machine Ethics in Modeling Human-Level Intelligent Agents (PDF). Kritike. Архів оригіналу (PDF) за 1 листопада 2019. Процитовано 1 листопада 2019.
  3. Waldrop, Mitchell (Spring 1987). A Question of Responsibility. AI Magazine. 8 (1): 28—39. doi:10.1609/aimag.v8i1.572.
  4. Anderson, M., Anderson, S., and Armen, C. (2004) «Towards Machine Ethics» in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  5. AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  6. Papers from the 2005 AAAI Fall Symposium. Архів оригіналу за 29 листопада 2014.
  7. а б Anderson, Michael; Anderson, Susan Leigh, ред. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
  8. а б Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent [Архівовано 1 жовтня 2020 у Wayback Machine.]. AI Magazine, Volume 28(4).
  9. Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. Oxford University Press. ISBN 9780195374049.
  10. Anderson, Michael; Anderson, Susan Leigh, ред. (July–August 2006). Special Issue on Machine Ethics. IEEE Intelligent Systems. 21 (4): 10—63. doi:10.1109/mis.2006.70. ISSN 1541-1672. Архів оригіналу за 26 листопада 2011.
  11. Siler, Cory (2015). Review of Anderson and Anderson's Machine Ethics. Artificial Intelligence. 229: 200—201. doi:10.1016/j.artint.2015.08.013. Архів оригіналу за 7 листопада 2019. Процитовано 7 листопада 2019.
  12. Tucker, Patrick (13 травня 2014). Now The Military Is Going To Build Robots That Have Morals. Defense One. Архів оригіналу за 1 липня 2014. Процитовано 9 липня 2014.
  13. Best Selling Science Books. New York Times. New York Times. 8 вересня 2014. Архів оригіналу за 25 серпня 2018. Процитовано 9 листопада 2014.
  14. European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics. European Commission. Архів оригіналу за 29 грудня 2016. Процитовано 12 січня 2017.
  15. Wakefield, Jane (12 січня 2017). MEPs vote on robots' legal status – and if a kill switch is required. BBC News. Архів оригіналу за 12 січня 2017. Процитовано 12 січня 2017.
  16. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics. European Parliament. Архів оригіналу за 3 грудня 2019. Процитовано 8 листопада 2019.
  17. Moor, James M. (2009). Four Kinds of Ethical Robots. Philosophy Now. Архів оригіналу за 26 лютого 2021. Процитовано 19 січня 2021.
  18. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (вид. First). ISBN 978-0199678112.
  19. Bostrom, Nick; Yudkowsky, Eliezer (2011). The Ethics of Artificial Intelligence (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Архів оригіналу (PDF) за 4 березня 2016. Процитовано 28 червня 2011.
  20. Santos-Lang, Chris (2002). Ethics for Artificial Intelligences. Архів оригіналу за 3 грудня 2011.
  21. Santos-Lang, Christopher (2014). Moral Ecology Approaches to Machine Ethics. У van Rysewyk, Simon; Pontier, Matthijs (ред.). Machine Medical Ethics. Intelligent Systems, Control and Automation: Science and Engineering. Т. 74. Switzerland: Springer. с. 111—127. doi:10.1007/978-3-319-08108-3_8. ISBN 978-3-319-08107-6.
  22. Evolving Robots Learn To Lie To Each Other [Архівовано 28 серпня 2009 у Wayback Machine.], Popular Science, August 18, 2009
  23. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  24. Santos-Lang, Chris (2002). «Ethics for Artificial Intelligences». Archived from the original on 2011-12-03.
  25. Scientists Worry Machines May Outsmart Man [Архівовано 1 липня 2017 у Wayback Machine.] By JOHN MARKOFF, NY Times, July 26, 2009.
  26. Call for debate on killer robots [Архівовано 7 серпня 2009 у Wayback Machine.], By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  27. Navy report warns of robot uprising, suggests a strong moral compass [Архівовано 4 червня 2011 у Wayback Machine.], by Joseph L. Flatley engadget.com, Feb 18th 2009.
  28. AAAI Presidential Panel on Long-Term AI Futures 2008—2009 Study [Архівовано 28 серпня 2009 у Wayback Machine.], Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  29. Sotala, Kaj; Yampolskiy, Roman V (19 грудня 2014). Responses to catastrophic AGI risk: a survey. Physica Scripta. 90 (1): 8. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  30. Crawford, Kate (25 червня 2016). Artificial Intelligence's White Guy Problem. The New York Times. Архів оригіналу за 14 січня 2021. Процитовано 19 січня 2021.
  31. а б Kirchner, Julia Angwin, Surya Mattu, Jeff Larson, Lauren (23 травня 2016). Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks. ProPublica (англ.). Архів оригіналу за 17 листопада 2017. Процитовано 19 січня 2021.
  32. Executive Office of the President (May 2016). Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights (PDF). Obama White House. Архів оригіналу (PDF) за 12 січня 2021. Процитовано 19 січня 2021.
  33. Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights (англ.). Obama White House. 4 травня 2016. Архів оригіналу за 20 січня 2021. Процитовано 19 січня 2021.
  34. а б How to Prevent Discriminatory Outcomes in Machine Learning. World Economic Forum. Архів оригіналу за 23 січня 2021. Процитовано 11 грудня 2018.
  35. Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI. SSRN Working Paper Series. doi:10.2139/ssrn.3518482. ISSN 1556-5068.
  36. Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence. 1 (9): 389—399. doi:10.1038/s42256-019-0088-2. ISSN 2522-5839.
  37. Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296. ISBN 9780511978036
  38. Powers, Thomas M. (2011): Prospects for a Kantian Machine [Архівовано 12 червня 2010 у Wayback Machine.]. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475.
  39. Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics [Архівовано 16 лютого 2021 у Wayback Machine.].
  40. Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition [Архівовано 25 січня 2021 у Wayback Machine.]
  41. Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate [Архівовано 10 квітня 2022 у Wayback Machine.]. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334.
  42. Hibbard, Bill (2014): Ethical Artificial Intelligence. https://arxiv.org/abs/1411.1373 [Архівовано 8 січня 2021 у Wayback Machine.]
  43. Microsoft chatbot is taught to swear on Twitter – BBC News. BBC News (en-GB) . Архів оригіналу за 17 квітня 2019. Процитовано 17 квітня 2016.
  44. Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
  45. Brundage, Miles; Winterton, Jamie. Chappie and the Future of Moral Machines. Slate. Архів оригіналу за 30 жовтня 2019. Процитовано 30 жовтня 2019.
  46. Asimov, Isaac (2008). I, robot. New York: Bantam. ISBN 978-0-553-38256-3.
  47. Ganascia, Jean-Gabriel. «Ethical system formalization using non-monotonic logics [Архівовано 24 жовтня 2018 у Wayback Machine.].» Proceedings of the Annual Meeting of the Cognitive Science Society. Vol. 29. No. 29. 2007.

Посилання ред.

Список літератури ред.