Google Brain — це група з глибокого вивчення штучного інтелекту під керівництвом Google AI[en], дослідницького підрозділу Google, присвяченого штучному інтелекту. Створена у 2011 році, Google Brain поєднує відкриті дослідження машинного навчання з інформаційними системами та великими обчислювальними ресурсами.[2] Команда створила такі інструменти, як TensorFlow, який надає публічний доступ для роботи із нейронною мережею, з безліччю внутрішніх наукових проектів у сфері ШI.[3] Команда націлена на створення дослідницьких можливостей у машинному навчанні та обробці природних мов.[3]

Google Brain
Сфера роботи машинне навчання
Названо на честь головний мозок
Засновник Джефф Дін[1], Ендрю Ин і Greg S. Corradod[1]

ІсторіяРедагувати

Так званий проект «Google Brain» почався в 2011 році як сторонній дослідний проект наукового співробітника Google Джеффа Діна, дослідника Google Грега Коррадо і професора Стенфордського університету Ендрю Ина[4]. Ин цікавився використанням методів глибокого навчання для вирішення завдань штучного інтелекту з 2006 року, а у 2011 році почав співпрацювати з Діном і Коррадо для створення великомасштабної системи глибокого навчання DistBelief[5] поверх інфраструктури хмарних обчислень Google. Google Brain був запущений як проект Google X і став настільки успішним, що повернувся назад в Google: Астро Теллер[en] сказав, що Google Brain окупив всю вартість Google X.[6]

У червні 2012 року New York Times повідомила, що кластер з 16000 комп'ютерів, призначених для імітації деяких аспектів діяльності мозку людини, навчився розпізнавати на зображеннях котів на основі 10 мільйонів цифрових зображень, отриманих з роликів на YouTube[4]. Також ця історія була висвітлена на National Public Radio і в Smart Planetruen[7].

У березні 2013 року Google найняла Джефрі Гінтона, провідного дослідника в області глибокого навчання, і придбала компанію DNNResearch, якою керував Гінтон. Гінтон сказав, що буде розподіляти свій час між дослідженням в університеті і роботою в Google.[8]

Команда і місце розташуванняРедагувати

Спочатку Google Brain був створений науковим співробітником Google Джеффом Діном і запрошеним зі Стенфорда професором Ендрю Ином. У 2014 році до складу команди увійшли Джефф Дін, Куок Ле, Ілля Суцкевер, Алекс Крижевський, Семі Бенджо[en] та Вінсент Ванхуке. На 2017 рік членами команд є: Анелія Ангелова, Семі Бенджо, Грег Коррадо, Джордж Дал, Майкл Ізард, Анжулі Каннан, Уго Ларочелле, Квок Ле, Крис Ола, Вінсент Ванхуке, Віджей Васудеван та Фернанда Вігас[en].[9] Кріс Латтнер[en] відомий тим, що створив мову програмування Apple Swift та згодом очолював команду безпілотних автомобілів Tesla протягом шести місяців, приєднався до команди Google Brain в серпні 2017 року.[10] Латтнер покинув команду в січні 2020 року та приєднався до SiFive.[11]

У 2021 році Google Brain очолюють Джефф Дін, Джефрі Гінтон і Зубін Гахрамані[en]. Серед інших членів — Кетрін Хеллер, Пі-Чуан Чанг, Ян Саймон, Жан-Філіпп Верт, Невена Лазіч, Анелія Ангелова, Лукаш Кайзер, Кері Джун Кай, Ерік Брек, Румінг Панг, Карлос Рікельме, Девід Ха.[9] Самі Бенджо покинув команду у квітні 2021 року[12], коли Зубін Гахрамані взяв на себе його обов'язки.

Google Research включає Google Brain і базується в Маунтін-В'ю, Каліфорнія. Він також має групи в Аккрі, Амстердамі, Атланті, Пекіні, Берліні, Кембриджі (Массачусетс), Ізраїлі, Лос-Анджелесі, Лондоні, Монреалі, Мюнхені, Нью-Йорку, Парижі, Піттсбурзі, Принстоні, Сан-Франциско, Сіетлі, Токіо, Торонто, і Цюриху.[13]

ПроектиРедагувати

Система шифрування, створена штучним інтелектомРедагувати

У жовтні 2016 року Google Brain розробив експеримент, щоб визначити, що нейронні мережі здатні навчитися безпечному симетричному шифруванню.[14] У цьому експерименті було створено три нейромережі: Аліса, Боб та Єва.[15] Дотримуючись ідеї генеративної змагальної мережі, метою експерименту було навчити Алісу створювати зашифровані повідомлення для Боба, яке Боб міг би розшифрувати, але Єва, не змогла б.[15] Аліса та Боб мали перевагу над Євою, оскільки в них був ключ, що використовується для шифрування та дешифрування.[14] Тим самим Google Brain продемонстрував здатність нейронних мереж навчатися безпечному шифруванню.[14]

Покращення зображеньРедагувати

У лютому 2017 року Google Brain знайшли імовірнісний метод для перетворення зображень з роздільною здатністю 8x8 в роздільну здатність 32x32.[16][17] Метод заснований на раніше відомій ймовірнісній моделі pixelCNN для генерування перетворень пікселів.[18][19]

Запропоноване програмне рішення використовує дві нейронні мережі для апроксимації пікселів зображень при перетворенні.[17][20] Перша мережа, відома як «мережа підготовки» (англ. conditioning network), яка зменшує розміри зображень з високою роздільною здатністю до розміру 8x8 і намагається створити відображення з оригінального зображення 8x8 до цих зображень з вищою роздільною здатністю.[17] Інша мережа, відома як «апріорна мережа», використовує відображення з попередньої мережі, щоб додати більше деталей до вихідного зображення.[17] Отримане перетворене зображення — це не те саме зображення у вищій роздільній здатності, а скоріше оцінка зображення з роздільною здатністю 32x32, зроблена на основі інших наявних зображень із високою роздільною здатністю.[17] Результати Google Brain вказують на можливість нейронних мереж покращувати зображення.[21]

Перекладач GoogleРедагувати

Внеском команди Google Brain до проекту Google Translate, стало використання нової системи глибокого навчання, яка поєднує штучні нейронні мережі з величезними базами даних багатомовних текстів.[22] У вересні 2016 року було запущено Google Neural Machine Translation (GNMT), наскрізну систему навчання, яка може вчитися на великій кількості прикладів.[22] Раніше підхід Google Translate на основі фразового машинного перекладу (англ. Phrase-Based Machine Translation, PBMT) статистично аналізував слово за словом і намагався знайти відповідні слова іншими мовами, не враховуючи навколишні фрази в реченні.[23] Але замість того, щоб вибирати заміну для кожного окремого слова бажаною мовою, GNMT оцінює сегменти слів у контексті решти речення, щоб вибрати більш точні заміни.[3] У порівнянні зі старішими моделями PBMT, модель GNMT набрала 24 % покращення схожості з перекладом, який зробила людина, при цьому кількість помилок зменшилася на 60 %.[3][22] GNMT також продемонстрував значне покращення для заздалегідь складних перекладів, таких як переклад з китайської мови на англійську.[22]

Хоча запровадження GNMT підвищило якість перекладів Google Translate для пілотних мов, було дуже важко створити такі покращення для всіх його 103 мов. Вирішуючи цю проблему, команда Google Brain Team змогла розробити багатомовну систему GNMT, яка розширила попередню, забезпечивши переклади між кількома мовами. Крім того, вона дозволяє здійснювати переклади Zero-Shot, що є перекладами між двома мовами, які система ніколи раніше явно не зустрічала.[24] Google оголосила, що Google Translate тепер також може перекладати без транскрибування, використовуючи нейронні мережі. Це означає, що можливо перекласти мовлення однією мовою безпосередньо в текст іншою мовою, попередньо не транскрибуючи її в текст. За словами дослідників Google Brain, цього проміжного кроку можна уникнути за допомогою нейронних мереж. Щоб система засвоїла це, вони ознайомили її з багатогодинним аудіо іспанською мовою разом із відповідним англійським текстом. Різні шари нейронних мереж, що копіюють людський мозок, змогли зв'язати відповідні частини і згодом маніпулювати звуковою формою, поки вона не була перетворена в англійський текст.[25] Іншим недоліком моделі GNMT є те, що час перекладу збільшується в геометричній прогресії разом із кількістю слів у реченні.[3] Це змусило команду Google Brain Team додати ще 2000 процесорів, щоб гарантувати, що новий процес перекладу буде швидким і надійним.[23]

РобототехнікаРедагувати

Прагнучи покращити традиційні алгоритми керування робототехнікою, де нові навички робота потрібно програмувати вручну, дослідники з робототехніки з Google Brain розробляють методи машинного навчання, які б дозволили роботам опановувати нові навички самостійно.[26] Вони також намагаються розробити способи обміну інформацією між роботами, щоб роботи могли вчитися один у одного під час процесу навчання, також відомого як хмарна робототехніка[en].[27] Як результат, Google запустила платформу Google Cloud Robotics Platform для розробників у 2019 році, намагаючись об'єднати робототехніку, AI та хмарні технології, щоб забезпечити ефективну автоматизацію співпраці роботів, які підключені до хмари.[27]

Робототехнічні дослідження в Google Brain зосереджені здебільшого на вдосконаленні та застосуванні алгоритмів глибокого навчання, які б дозволили роботам виконувати завдання, навчаючись за допомогою власного досвіду, моделювання, людських демонстрацій та/або візуальних даних.[28][29][30][31] Наприклад, дослідники Google Brain показали, що роботи можуть навчитися підіймати та складати тверді об'єкти у ящики, не бувши попередньо запрограмованим на це, за допомогою проведення експериментів у специфічному середовищі.[28] В іншому проекті дослідники натренували роботів вчитися таким процесам, як виливання рідини з чашки. Роботи навчилися за допомогою показу відеозаписів людей, які виконують це завдання, записаних з різних точок зору.[30]

Дослідники Google Brain співпрацюють з іншими компаніями та академічними установами, що досліджують робототехніку. У 2016 році команда Google Brain Team співпрацювала з дослідниками з X у дослідженні з вивчення координації рук і очей для роботизованого хапання.[32] Їх метод дозволив керувати роботом у реальному часі для хапання нових об'єктів із самокоригуванням.[32] У 2020 році дослідники з Google Brain, Intel AI Lab і UC Berkeley створили модель штучного інтелекту для роботів, які вчаться завданням пов'язаних із хірургією, за допомогою відео справжніх операцій. Зокрема, їх навчали накладанню швів.[31]

Інтерактивне розпізнавання мовця за допомогою навчання з підкріпленнямРедагувати

У 2020 році команда Google Brain Team та Лілльського університету представили модель автоматичного розпізнавання мовця, яку вони назвали Interactive Speaker Recognition (ISR). Модуль ISR розпізнає мовця з заданого списку мовців, лише запитуючи декілька слів, специфічних для користувача.[33] Модель можна змінити, щоб була можливість вибрати сегменти мовлення в контексті навчання синтезу мовлення.[33] Також вона може захистити дані у випадку використання зловмисниками генераторів мовлення.[33]

TensorFlowРедагувати

TensorFlow — це бібліотека програмного забезпечення з відкритим вихідним кодом на базі Google Brain, яка дозволяє будь-кому використовувати машинне навчання, надаючи інструменти для тренування власної нейронної мережі.[3] Наприклад, цей інструмент використовувався для зменшення кількості ручної праці на фермі по сортуванню врожаю. Для цього була натренована нейронна мережа на наборі зображень попередньо відсортованих людьми.[3]

MagentaРедагувати

Magenta — це проект, який використовує Google Brain для створення нової інформації у вигляді мистецтва та музики, а не для класифікації та сортування наявних даних[3]. TensorFlow було оновлено набором інструментів для користувачів, за допомогою яких вони можуть вчити нейронну мережу створенню зображень і музики.[3] Однак команда з університету Валдоста[en] виявила, що ШІ не може досконало відтворювати людські наміри в мистецтві, подібно до складнощів, які виникають при перекладі текстів[3].

Застосування у медициніРедагувати

Можливості класифікації зображень Google Brain використовуються, для виявлення певних медичних захворювань шляхом пошуку ознак, які є корисними для ранньої діагностики, проте лікарі можуть їх не зауважити.[3] Під час скринінгу на рак молочної залози було виявлено, що цей метод на 75 % рідше ставить невірний позитивний діагноз, ніж лікарі-людини, яким потрібно більше часу, щоб переглянути кожну фотографію.[3] Через дуже специфічну підготовку нейронної мережі для виконання окремого завдання, вона не може визначити інші хвороби, які фахівець легко впізнає на фотографії.[3]

Інші продукти GoogleРедагувати

Технологія проектів Google Brain наразі використовується в інших продуктах Google, таких як система розпізнавання мовлення операційної системи Android, пошук фотографій у Google Photos, розумна відповідь[34] у Gmail та рекомендації відео на YouTube.[35][36][37]

ВизнанняРедагувати

Google Brain отримав висвітлення в Wired Magazine,[38][39][40] National Public Radio,[7] і Big Think[en].[41] Ці статті містили інтерв'ю з ключовими членами команди Реєм Курцвейлом та Ендрю Ином і зосереджені на поясненнях цілей та застосуваннях проекту.[38][7][41]

ДискусіяРедагувати

У грудні 2020 року спеціалістка з питань етики ШI Тимніт Гебру[en] залишила Google.[42] Причиною звільнення стала її відмова відкликати статтю під назвою «Про небезпеку стохастичних папуг: чи можуть мовні моделі бути занадто великими?»[42] У цій статті досліджуються потенційні ризики розвитку штучного інтелекту, такого як Google Brain, зокрема їхній вплив на навколишнє середовище, упередження в навчальних даних та здатність обманювати громадськість.[42][43] З проханням відкликати статтю звернулася Меган Качолія, віцепрезидент Google Brain.[44] Станом на квітень 2021 року майже 7000 нинішніх або колишніх співробітників Google і прихильників галузі підписали відкритий лист, в якому звинувачують Google у «цензурі досліджень» та засуджують те, як повелася компанії з Гебру.[45]

У лютому 2021 року Google звільнив Маргарет Мітчелл, одну з керівників команди з етики в галузі штучного інтелекту.[44] У заяві компанії стверджується, що Мітчелл порушила політику компанії, використовуючи автоматизовані інструменти для пошуку підтримки для Гебру.[44] У тому ж місяці інженери поза командою з етики почали звільнятися, посилаючись на «неправомірне» звільнення Гебру, як причину свого звільнення.[46] У квітні 2021 року співзасновник Google Brain Семі Бенджо[en] оголосив про свою відставку з компанії.[12] Попри те, що він був менеджером Гебру, Бенджіо не був повідомлений про її звільнення, і він опублікував пост в Інтернеті на підтримку і неї, і Мітчелл.[12] Хоча пост Бенджіо зосереджувалося на особистісному зростанні як причині його відходу, анонімні джерела вказали Reuters, що негаразди в команді з етики ШІ зіграли певну роль у його міркуваннях.[12]

Див. такожРедагувати

ПриміткиРедагувати

  1. а б https://backchannel.com/how-google-is-remaking-itself-as-a-machine-learning-first-company-ada63defcb70#.s564p1oum
  2. «What is Google Brain?» [Архівовано 2 червня 2021 у Wayback Machine.]. GeeksforGeeks. 2020-02-06. Retrieved 2021-04-09
  3. а б в г д е ж и к л м н п Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (2018-03-09). "An Overview of Google Brain and Its Applications". Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72–75. doi:10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. S2CID 44107806.
  4. а б Markoff, John (25 червня 2012). How Many Computers to Identify a Cat? 16,000. The New York Times. Процитовано 11 лютого 2014. 
  5. Jeffrey Dean; et al. (December 2012). «Large Scale Distributed Deep Networks» [Архівовано 26 січня 2016 у Wayback Machine.] (PDF). Retrieved 25 October 2015.
  6. Conor Dougherty (16 February 2015). «Astro Teller, Google's 'Captain of Moonshots,' on Making Profits at Google X» [Архівовано 22 жовтня 2015 у Wayback Machine.]. Retrieved 25 October 2015.
  7. а б в A Massive Google Network Learns To Identify — Cats. National Public Radio. 26 червня 2012. Архів оригіналу за 13 червня 2021. Процитовано 11 лютого 2014. 
  8. «U of T neural networks start-up acquired by Google» [Архівовано 8 жовтня 2019 у Wayback Machine.] (Press release). Toronto, ON. 12 March 2013. Retrieved 13 March 2013.
  9. а б «Brain Team — Google Research» [Архівовано 2 жовтня 2021 у Wayback Machine.]. Google Research. Retrieved 2021-04-08.
  10. Etherington, Darrell (Aug 14, 2017). «Swift creator Chris Lattner joins Google Brain after Tesla Autopilot stint» [Архівовано 19 серпня 2021 у Wayback Machine.]. TechCrunch. Retrieved 11 October 2017.
  11. «Former Google and Tesla Engineer Chris Lattner to Lead SiFive Platform Engineering Team» [Архівовано 3 червня 2021 у Wayback Machine.]. www.businesswire.com. 2020-01-27. Retrieved 2021-04-09
  12. а б в г Dave, Jeffrey Dastin, Paresh (7 квітня 2021). Google AI scientist Bengio resigns after colleagues' firings: email. Reuters (англ.). Архів оригіналу за 2 червня 2021. Процитовано 8 квітня 2021. 
  13. «Build for Everyone — Google Careers» [Архівовано 5 жовтня 2021 у Wayback Machine.]. careers.google.com. Retrieved 2021-04-08.
  14. а б в Zhu, Y.; Vargas, D. V.; Sakurai, K. (November 2018). «Neural Cryptography Based on the Topology Evolving Neural Networks» [Архівовано 2 червня 2021 у Wayback Machine.]. 2018 Sixth International Symposium on Computing and Networking Workshops (CANDARW): 472—478. doi:10.1109/CANDARW.2018.00091. ISBN 978-1-5386-9184-7. S2CID 57192497.
  15. а б Abadi, Martín; Andersen, David G. (2016). «Learning to Protect Communications with Adversarial Neural Cryptography». arXiv:1610.06918. Bibcode:2016arXiv161006918A.
  16. Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). Pixel Recursive Super Resolution. Bibcode:2017arXiv170200783D. arXiv:1702.00783. 
  17. а б в г д Google Brain super-resolution image tech makes "zoom, enhance!" real. arstechnica.co.uk. 7 лютого 2017. Архів оригіналу за 13 липня 2021. Процитовано 15 травня 2017. 
  18. Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018). To Learn Image Super-Resolution, Use a GAN to Learn How to Do Image Degradation First. Computer Vision – ECCV 2018 (Cham: Springer International Publishing): 187–202. ISBN 978-3-030-01230-4. arXiv:1807.11458. doi:10.1007/978-3-030-01231-1_12. Архів оригіналу за 26 грудня 2021. Процитовано 9 квітня 2021. 
  19. Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 червня 2016). Pixel Recurrent Neural Networks. International Conference on Machine Learning (англ.) (PMLR): 1747–1756. arXiv:1601.06759. Архів оригіналу за 1 жовтня 2021. Процитовано 4 травня 2022. 
  20. Google uses AI to sharpen low-res images. engadget.com. Архів оригіналу за 2 травня 2021. Процитовано 15 травня 2017. 
  21. Google just made 'zoom and enhance' a reality -- kinda. cnet.com. Архів оригіналу за 5 вересня 2021. Процитовано 15 травня 2017. 
  22. а б в г Castelvecchi, Davide (2016). Deep learning boosts Google Translate tool. Nature News (англ.). doi:10.1038/nature.2016.20696. Архів оригіналу за 8 листопада 2020. Процитовано 4 травня 2022. 
  23. а б Lewis-Kraus, Gideon (14 грудня 2016). The Great A.I. Awakening. The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 5 травня 2017. Процитовано 8 квітня 2021. 
  24. Johnson, Melvin; Schuster, Mike; Le, Quoc V.; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda та ін. (1 жовтня 2017). Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation. Transactions of the Association for Computational Linguistics 5: 339–351. ISSN 2307-387X. doi:10.1162/tacl_a_00065. 
  25. Reynolds, Matt. Google uses neural networks to translate without transcribing. New Scientist. Архів оригіналу за 18 квітня 2021. Процитовано 15 травня 2017. 
  26. Metz, Cade; Dawson, Brian; Felling, Meg (26 березня 2019). Inside Google's Rebooted Robotics Program. The New York Times (амер.). ISSN 0362-4331. Архів оригіналу за 16 вересня 2021. Процитовано 8 квітня 2021. 
  27. а б Google Cloud Robotics Platform coming to developers in 2019. The Robot Report (амер.). 24 жовтня 2018. Архів оригіналу за 26 серпня 2021. Процитовано 8 квітня 2021. 
  28. а б Zeng, A.; Song, S.; Lee, J.; Rodriguez, A.; Funkhouser, T. (August 2020). TossingBot: Learning to Throw Arbitrary Objects With Residual Physics. IEEE Transactions on Robotics 36 (4): 1307–1319. ISSN 1941-0468. doi:10.1109/TRO.2020.2988642. 
  29. Gu, S.; Holly, E.; Lillicrap, T.; Levine, S. (May 2017). Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates. 2017 IEEE International Conference on Robotics and Automation (ICRA): 3389–3396. ISBN 978-1-5090-4633-1. arXiv:1610.00633. doi:10.1109/ICRA.2017.7989385. Архів оригіналу за 13 травня 2021. Процитовано 4 травня 2022. 
  30. а б Sermanet, P.; Lynch, C.; Chebotar, Y.; Hsu, J.; Jang, E.; Schaal, S.; Levine, S.; Brain, G. (May 2018). Time-Contrastive Networks: Self-Supervised Learning from Video. 2018 IEEE International Conference on Robotics and Automation (ICRA): 1134–1141. ISBN 978-1-5386-3081-5. arXiv:1704.06888. doi:10.1109/ICRA.2018.8462891. Архів оригіналу за 4 травня 2021. Процитовано 4 травня 2022. 
  31. а б Tanwani, A. K.; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (May 2020). Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos. 2020 IEEE International Conference on Robotics and Automation (ICRA): 2174–2181. ISBN 978-1-7281-7395-5. arXiv:2006.00545. doi:10.1109/ICRA40945.2020.9197324. Архів оригіналу за 4 травня 2021. Процитовано 4 травня 2022. 
  32. а б Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julian; Quillen, Deirdre (1 квітня 2018). Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection. The International Journal of Robotics Research (англ.) 37 (4–5): 421–436. ISSN 0278-3649. doi:10.1177/0278364917710318. 
  33. а б в Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 жовтня 2020). A Machine of Few Words: Interactive Speaker Recognition with Reinforcement Learning. Interspeech 2020 (ISCA: ISCA): 4323–4327. arXiv:2008.03127. doi:10.21437/interspeech.2020-2892. Архів оригіналу за 12 травня 2021. Процитовано 4 травня 2022. 
  34. https://blog.google/products/gmail/save-time-with-smart-reply-in-gmail/ [Архівовано 16 квітня 2022 у Wayback Machine.]
  35. How Google Retooled Android With Help From Your Brain. Wired (en-us). ISSN 1059-1028. Архів оригіналу за 27 липня 2021. Процитовано 8 квітня 2021. 
  36. Google Open-Sources The Machine Learning Tech Behind Google Photos Search, Smart Reply And More. TechCrunch (амер.). Архів оригіналу за 12 травня 2021. Процитовано 8 квітня 2021. 
  37. This Is Google's Plan to Save YouTube. Time. 18 травня 2015. Архів оригіналу за 10 вересня 2016. Процитовано 4 травня 2022. 
  38. а б Levy, Steven (25 квітня 2013). How Ray Kurzweil Will Help Google Make the Ultimate AI Brain. Wired. Архів оригіналу за 10 лютого 2014. Процитовано 11 лютого 2014. 
  39. Wohlsen, Marcus (27 січня 2014). Google's Grand Plan to Make Your Brain Irrelevant. Wired. Архів оригіналу за 14 лютого 2014. Процитовано 11 лютого 2014. 
  40. Hernandez, Daniela (7 травня 2013). The Man Behind the Google Brain: Andrew Ng and the Quest for the New AI. Wired. Архів оригіналу за 8 лютого 2014. Процитовано 11 лютого 2014. 
  41. а б Ray Kurzweil and the Brains Behind the Google Brain. Big Think. 8 грудня 2013. Архів оригіналу за 27 березня 2014. Процитовано 11 лютого 2014. 
  42. а б в We read the paper that forced Timnit Gebru out of Google. Here's what it says.. MIT Technology Review (англ.). Архів оригіналу за 25 грудня 2020. Процитовано 8 квітня 2021. 
  43. Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 березня 2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (англ.) (Virtual Event Canada: ACM): 610–623. ISBN 978-1-4503-8309-7. doi:10.1145/3442188.3445922. 
  44. а б в Schiffer, Zoe (19 лютого 2021). Google fires second AI ethics researcher following internal investigation. The Verge (англ.). Архів оригіналу за 29 вересня 2021. Процитовано 8 квітня 2021. 
  45. Change, Google Walkout For Real (15 грудня 2020). Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen. Medium (англ.). Архів оригіналу за 7 жовтня 2021. Процитовано 8 квітня 2021. 
  46. Dave, Jeffrey Dastin, Paresh (4 лютого 2021). Two Google engineers resign over firing of AI ethics researcher Timnit Gebru. Reuters (англ.). Процитовано 8 квітня 2021.