Цифрове клонування (англ. Digital cloning) — це нова технологія, яка включає алгоритми глибокого навчання, що дозволяє оперувати існуючими в даний час аудіо, фото та відео, які мають гіперреалістичний характер.[1] Одним із наслідків такої технології є те, що гіпер-реалістичні відео та фотографії настільки якісні, що людське око не може розрізнити, що є реальним, а що підробленим.[2] Крім того, завдяки численним компаніям, які роблять ці технології доступними для загалу, вони можуть приносити як різні переваги, так і юридичні та етичні проблеми.

Спочатку цифрове клонування набуло вжитку в індустрії розваг. Ідея цифрових клонів виникла у кінокомпаній, які створювали цифрові копії померлих акторів[en]. У випадку, коли актор помирає під час кіновиробництва, може бути синтезований цифровий клон актора за допомогою попередніх кадрів, фотографій та голосових записів, що дозволяє імітувати реальну людину та продовжити виробництво фільму.[3]

Сучасний штучний інтелект дозволяє підробляти зображення. А саме маніпулювати відеозображенням так, що особа, зображена у відео, говорить або виконує дії, на які вона не давала згоди.[4] У квітні 2018 року для попередження громадськості про потенційну небезпеку фейків, ресурс BuzzFeed опублікував підроблене відео, створене Джорданом Пілі (англ. Jordan Peele), в якому колишній президент Барак Обама зробив заяви, які раніше не оприлюднювалися.[5]

Окрім фейків, такі компанії, як Intellitar[en], тепер дозволяють легко створити свій власний цифровий клон з низки зображень та голосових записів. Це по суті створює цифрове безсмертя, дозволяючи близьким спілкуватися із загиблими.[6] Цифрове клонування не лише дозволяє цифровим способом запам'ятовувати своїх близьких, але їх також можна використовувати для створення аватарів історичних фігур та використовувати їх у навчальних закладах.

З розвитком різних технологій, як згадувалося вище, виникають численні занепокоєння, серед них крадіжка особистих даних, витік даних та інші етичні проблеми. Одне з питань цифрового клонування — це те, що законодавство не достатньо захищає потенційних жертв від цих можливих проблем.[7]

Технологія ред.

Інтелектуальні платформи для аватарів (IAP) ред.

Інтелектуальну платформу аватарів (англ. Intelligent Avatar Platform, IAP) можна визначити як онлайн-платформу, підтримувану штучним інтелектом, яка дозволяє створити свій клон.[6] Індивід повинен навчити свого клона діяти та говорити так, як він це робить, для цього алгоритму надаються для навчання численні голосові та відеозаписи.[8] По суті, ця платформа стає місцем, де аватари можуть існувати вічно, оскільки вони можуть взаємодіяти з іншими аватарами на тій же платформі. IAP стає платформою для досягнення цифрового безсмертя, а також збереження родового дерева та спадщини для наступних поколінь.

Деякі приклади IAP включають Intellitar[en] та Eterni.me. Хоча більшість цих компаній ще перебувають у стадії розробки, всі вони мають спільну мету — дозволити користувачеві створити точний дублікат себе, щоб зберігати кожен спогад, який вони мають у своєму розумі, в кіберпросторі.[6] Деякі розробники надають безкоштовну версію, яка дозволяє користувачеві вибирати лише аватар із заданого набору зображень та аудіо. А вже в преміум-версії користувач може завантажувати фотографії, відео та аудіозаписи для створення своєї реалістичної версії.[9] Крім того, для того, щоб клон був максимально наближений до оригінальної особи, компанії також заохочують взаємодіяти з власним клоном, спілкуватись з ним у чаті та відповідати на запитання. Це дозволяє алгоритму пізнати справжню людину і застосувати ці знання до клону.

Серед потенційних проблеми IAP - можливий витік даних та відсутність згоди померлого. IAP повинен мати потужну основу та захист проти порушень та злому даних, щоб захистити особисту інформацію загиблих, яка може включати запис голосу, фотографії та повідомлення.[8] Крім ризику порушити особисту конфіденційність, існує також ризик порушити приватне життя померлого . Хоча можна дати згоду на створення цифрового клону перед його фізичною смертю, вони не можуть дати згоду на дії, які може здійснити цифровий клон.

Deepfakes ред.

Докладніше: Діпфейк

Як було описано раніше, фейки — це форма відео маніпуляції, де можна змінити присутніх людей, подаючи різні зображення конкретної людини, яку вони хочуть. Крім того, ви також можете змінити голос і слова, які говорить людина у відео, просто надіславши серію голосових записів нової людини тривалістю близько однієї або двох хвилин. У 2018 році було випущено новий додаток під назвою FakeApp, що дозволив громадськості легко отримати доступ до цієї технології для створення відео. Цей додаток також було використано для створення відео Buzzfeed колишнього президента Барака Обами.[5] Завдяки deepfakes, галузі можуть знизити витрати на наймання акторів або моделей для фільмів та реклами, створюючи відео та фільми ефективно за низькою ціною, лише збираючи серію фотографій та аудіозаписів за згодою особи.[10]

Потенційна проблема, пов'язана з deepfakes, полягає в тому, що доступ надається практично кожному, хто завантажує різні додатки, які пропонують ту саму послугу. Отримавши доступ до цього інструменту, хтось може зловмисно використовувати цю програму для створення відео як помсти та маніпулятивних відео державних чиновників, які роблять заяви, про які вони ніколи не скажуть у реальному житті. Це не тільки зачіпає конфіденційність особистості у відео, але й викликає різні етичні проблеми.[11]

Клонування голосу ред.

Клонування голосу — це алгоритм глибокого навчання, який приймає записи голосу окремої людини і здатний синтезувати голос, дуже схожий на початковий голос. Подібно до deepfakes, є численні додатки, такі як LyreBird, iSpeech та CereVoice Me, що надають публіці доступ до такої технології. Алгоритму просто потрібно максимум пару хвилин аудіозаписів, щоб створити подібний голос, і він також зрозуміє будь-який текст і прочитає його вголос. Хоча ця програма ще перебуває на стадії розробки, вона швидко розвивається, оскільки великі корпорації технологій, такі як Google та Amazon, вкладають величезні кошти для розвитку.[12]

Деякі з позитивних застосувань клонування голосу включають можливість синтезу мільйонів аудіокниг без використання людської праці. Ще цю технологію можна позитивно застосувати для тих, хто, можливо, втратив голос, може повернути почуття індивідуальності, створивши власний клон голосу, ввівши записи на яких ці люди говорять, перш ніж вони втратили свій голос. З іншого боку, клонування голосу також вразливе до неправильного використання. Прикладом цього є висловлювання знаменитостей та державних чиновників, які клонуються, і голос може сказати щось, що спровокує конфлікт, незважаючи на те, що особа не має нічого спільного з тим, що сказав їхній голос.[13]

Конструктивне використання ред.

Освіта ред.

Цифрове клонування може бути корисним у навчальній обстановці для створення більш глибокого досвіду для студентів. Деякі студенти можуть навчитися краще завдяки більш інтерактивному досвіду, а створення фейків може підвищити здатність учнів до навчання. Одним із прикладів цього є створення цифрового клону історичних постатей, наприклад, Авраама Лінкольна, щоб показати, з якими проблемами він стикався за своє життя і як він зміг їх подолати. Ще один приклад використання цифрових клонів у навчальних закладах — це те, щоб оратори створили цифровий клон із себе. У різних адвокатських груп можуть виникнути проблеми з розкладом, оскільки вони відвідують різні школи протягом року. Однак, створюючи самі цифрові клони, їхні клони можуть презентувати тему в тих місцях, де група фізично не змогла її зробити. Ці навчальні переваги можуть принести студентам новий спосіб навчання, а також надання доступу до тих, хто раніше не мав доступу до ресурсів через екологічні умови.[10]

Мистецтво ред.

Хоча цифрове клонування вже деякий час є в індустрії розваг та мистецтва, штучний інтелект може значно розширити використання цих технологій у цій галузі. Кіноіндустрія може створити ще більше гіпер-реалістичних акторів та актрис, які померли. Крім того, кіноіндустрія також може створити цифрові клони на сценах з фільмами, що може зажадати додаткових даних, що може допомогти значно скоротити витрати на виробництво. Однак цифрове клонування та інші технології можуть бути корисними для некомерційних цілей. Наприклад, художники можуть бути більш виразними, якщо вони прагнуть синтезувати аватари, щоб бути частиною їх відеопродукції. Вони також можуть створювати цифрові аватари, щоб скласти свою роботу та допомогти сформулювати свої ідеї, перш ніж перейти до роботи над заключним твором.[10]

Цифрове безсмертя ред.

Хоча цифрове безсмертя існує деякий час, оскільки облікові записи соціальних медіа померлих продовжують залишатися в кіберпросторі, створюючи віртуальний клон, який є безсмертним, набуває нового сенсу. Створюючи цифровий клон, можна зафіксувати не лише візуальну присутність себе, але й їх маньєризм, включаючи особистість та пізнання. За допомогою цифрового безсмертя можна продовжувати взаємодіяти зі своїми близькими після того, як вони пройдуть, що, можливо, може закінчити бар'єр фізичної смерті. Крім того, сім'ї можуть з'єднуватися з декількома поколіннями, утворюючи родове дерево, в певному сенсі, передавати спадщину родини наступним поколінням, забезпечуючи спосіб передачі історії.[6]

Побоювання ред.

Підроблені новини ред.

При нестачі норм для фейків виникає кілька проблем. Деякі, що стосуються відеороликів, які можуть принести потенційну шкоду, включають зображення політичних чиновників, що демонструють неадекватну поведінку, поліцейські які розстрілюють беззбройних чорношкірих людей, та солдати, що вбивають невинних цивільних, можуть почати з'являтися, хоча це в житті ніколи не траплялося.[14] Коли такі гіперреалістичні відеоролики публікуються в Інтернеті, громадськість стає дуже легко дезінформувати, що може змусити людей вжити заходів, тим самим сприяючи цьому порочному циклу непотрібної шкоди. Крім того, із збільшенням підроблених новин в останніх новинах також існує можливість поєднання фейків та фальшивих новин. Це призведе до додаткових труднощів у розрізненні того, що є реальним, а що підробленим. Візуальна інформація може бути дуже переконливою для людських очей, тому поєднання глибоких фейків та фальшивих новин може мати згубний вплив на суспільство.[10] Компанії соціальних медіа та інші платформи для новин повинні приймати чіткі правила.[15]

Особисте користування ред.

Ще одна причина, з якою зловмисно можуть використовуватися фейки, це те, що хтось може нашкодити іншому на особистому рівні. Завдяки підвищеній доступності технологій створення фейків, шантажисти і злодії здатні легко витягувати особисту інформацію для фінансових прибутків та інших причин, створюючи відео для близьких жертви щоб просити допомоги.[10] Крім того, клонування голосу може зловмисно застосовуватися злочинцями для здійснення фальшивих телефонних дзвінків жертвам. Телефонні дзвінки матимуть точний голос та маньєризм, як особа, яка може обдурити потерпілого в наданні приватної інформації злочинцю.[16]

Створення фейків та голосових клонів для особистого використання може бути надзвичайно важким відповідно до закону, оскільки комерційної шкоди немає. Швидше за все, вони часто виникають у формі психологічної та емоційної шкоди, утрудняючи суд у забезпеченні засобів захисту.[4]

Етичні наслідки ред.

Хоча існують численні юридичні проблеми, які виникають із розвитком такої технології, є також етичні проблеми, які можуть бути не захищені чинним законодавством. Однією з найбільших проблем, яка виникає із застосуванням фейків та клонування голосу, є потенціал крадіжки особистих даних. Однак крадіжку особистих даних із точки зору фейків важко переслідувати, оскільки в даний час немає законів, характерних для фейків. Крім того, збитки, які може принести зловмисне використання фейків, є скоріше психологічним та емоційним, а не фінансовим, що ускладнює надання засобів захисту. Аллен стверджує, що спосіб поводження з приватним життям схожий на категоричний імператив Канта .[4]

Іншим етичним наслідком є використання приватної та особистої інформації, від якої потрібно відмовитися, щоб використовувати цю технологію. Оскільки цифрове клонування, фейки та клонування голосу всі використовують алгоритм глибокого навчання, чим більше інформації отримує алгоритм, тим кращі результати.[17] Однак на кожній платформі існує ризик порушення даних, що потенційно може призвести до того, що групи, до яких користувачі ніколи не погоджуються, отримують доступ до особистої інформації. Крім того, посмертна конфіденційність ставиться під сумнів, коли члени сім'ї коханої людини намагаються зібрати якомога більше інформації, щоб створити цифровий клон померлого без дозволу, скільки інформації вони готові здати.[18]

Діючі закони в США ред.

Закони про авторські права ред.

У США закони про авторські права вимагають певного виду оригінальності та креативності, щоб захистити індивідуальність автора. Однак створити цифровий клон просто означає взяти особисті дані, такі як фотографії, голосові записи та іншу інформацію, щоб створити віртуальну людину, максимально близьку до фактичної людини. У рішенні справи Верховного Суду Feist Publications Inc. v. Rural Television Services Company, Inc[en]., Justice O'Connor наголосив на важливості оригінальності та певної міри творчості. Однак масштаби оригінальності та креативності чітко не визначені, що створює сіру зону для законів про авторські права.[19] Створення цифрових клонів вимагають не тільки даних людини, але й інформування творця про те, як цифровий клон повинен діяти чи рухатися. У справі Meshwerks проти Toyota було поставлено це питання, і суд заявив, що ті ж закони про авторські права, створені для фотографії, повинні застосовуватися до цифрових клонів.

Право на публічність ред.

Зважаючи на відсутність законодавчих актів щодо захисту осіб від потенційного шкідливого використання цифрового клонування, право на публічну рекламу може бути найкращим способом захистити його в правових умовах.[3] Право на публічність, яке також називають правами особистості, дає автономію особистості, коли мова йде про контроль над власним голосом, зовнішністю та іншими аспектами, які по суті складають їх особистість у комерційних умовах.[20] Якщо підроблене відео або цифровий клон одного з них виникає без їхньої згоди, зображуючи особу, яка діє або робить заяви, які не належать до їх особистості, вони можуть вжити юридичних дій, стверджуючи, що це порушує їхнє право на публічність. Хоча право на публічність конкретно зазначає, що воно має на меті захистити імідж фізичної особи в комерційній обстановці, що вимагає певного виду прибутку, деякі заявляють, що законодавство може бути оновлено для захисту практично чийогось образу та особистості.[21] Ще одна важлива примітка полягає в тому, що право на публічність здійснюється лише в конкретних штатах, тому деякі держави можуть мати різні трактування права порівняно з іншими державами.

Профілактичні заходи ред.

Технологія ред.

Одним із способів для того щоб не стати жертвою будь-якої із згаданих вище технологій є розробка штучного інтелекту проти цих алгоритмів. Вже є кілька компаній, які розробили штучний інтелект, який може виявляти штучні зображення, дивлячись на шаблони кожного пікселя.[22] Застосовуючи подібну логіку, вони намагаються створити програмне забезпечення, яке знімає кожен кадр даного відео та аналізує його піксель за пікселем, щоб знайти шаблон оригінального відео та визначити, чи ним маніпулювали чи ні.[23]

Окрім розробки нової технології, яка дозволяє виявити будь-які відео-маніпуляції, багато дослідників підвищують значення для приватних корпорацій, створюючи більш жорсткі вказівки щодо захисту конфіденційності приватних осіб.[12] З розвитком штучного інтелекту необхідно запитати, як це впливає на суспільство сьогодні, оскільки воно починає проявлятися практично в усіх аспектах суспільства, включаючи медицину, освіту, політику та економіку . Крім того, штучний інтелект почне з'являтися в різних аспектах суспільства, що робить важливим прийняття законів, що захищають права людини, коли технологія переймає їх. Оскільки приватний сектор отримує все більшу цифрову владу над громадськістю, важливо встановити суворі правила та закони, щоб не допустити приватних корпорацій зловмисно використовувати особисті дані. Крім того, минула історія різних порушень даних та порушень політики конфіденційності також повинна бути попередженням про те, як можна отримати доступ та використовувати особисту інформацію без згоди особи.[7]

Цифрова грамотність ред.

Ще один спосіб запобігти шкоді від цієї технології — це освіта людей про плюси і мінуси цифрового клонування. Це дає право кожній людині приймати раціональне рішення, виходячи з власних обставин.[24] Крім того, важливо також навчати людей, як захистити інформацію, яку вони розміщують в Інтернеті. Підвищуючи цифрову грамотність громадськості, у людей є більше шансів визначити, чи підроблене певне відео, оскільки вони можуть більш скептично ставитися до інформації, яку вони знаходять в Інтернеті.[12]

Див. також ред.

Примітки ред.

  1. Floridi, Luciano (2018). Artificial Intelligence, Deepfakes and a Future of Ectypes. Philosophy & Technology. 31 (3): 317—321. doi:10.1007/s13347-018-0325-3.
  2. Borel, Brooke (2018). Clicks, Lies and Videotape. Scientific American. 319 (4): 38—43. Bibcode:2018SciAm.319d..38B. doi:10.1038/scientificamerican1018-38. PMID 30273328.
  3. а б Beard, Joseph (2001). CLONES, BONES AND TWILIGHT ZONES: Protecting the Digital Persona of the Quick, the Dead and the Imaginary. Berkeley Technology Law Journal. 16 (3): 1165—1271. JSTOR 24116971.
  4. а б в Allen, Anita (2016). Protecting One's Own Privacy In a Big Data Economy. Harvard Law Review. 130 (2): 71—86.
  5. а б Silverman, Craig (April 2018). How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video. Buzzfeed.
  6. а б в г Meese, James (2015). Posthumous Personhood and the Affordances of Digital Media. Mortality. 20 (4): 408—420. doi:10.1080/13576275.2015.1083724.
  7. а б Nemitz, Paul Friedrich (2018). Constitutional Democracy and Technology in the Age of Artificial Intelligence. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 59 (9): 20180089. Bibcode:2018RSPTA.37680089N. doi:10.1098/rsta.2018.0089. PMID 30323003.
  8. а б Michalik, Lyndsay (2013). 'Haunting Fragments': Digital Mourning and Intermedia Performance. Theatre Annual. 66 (1): 41—64. ProQuest 1501743129.
  9. Ursache, Marius. Eternime.
  10. а б в г д Chesney, Robert (2018). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security (PDF). SSRN Electronic Journal. 26 (1): 1—58.
  11. Suwajanakorn, Supasorn (2017). Synthesizing Obama (PDF). ACM Transactions on Graphics. 36 (4): 1—13. doi:10.1145/3072959.3073640.
  12. а б в Brayne, Sarah (2018). Visual Data and the Law. Law & Social Inquiry. 43 (4): 1149—1163. doi:10.1111/lsi.12373.
  13. Fletcher, John (2018). Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance. Theatre Journal. 70 (4): 455—71. doi:10.1353/tj.2018.0097.
  14. Chesney, Robert (2019). Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics. Foreign Affairs. 98 (1): 147—55. Архів оригіналу за 23 квітня 2019. Процитовано 28 жовтня 2019.
  15. Hall, Kathleen (2018). Deepfake Videos: When Seeing Isn't Believing. Catholic University Journal of Law and Technology. 27 (1): 51—75.
  16. Poudel, Sawrpool (2016). Internet of Things: Underlying Technologies, Interoperability, and Threats to Privacy and Security. Berkeley Technology Law Review. 31 (2): 997—1021. Архів оригіналу за 30 квітня 2017. Процитовано 28 жовтня 2019.
  17. Dang, L. Ming (2018). Deep Learning Based Computer Generated Face Identification Using Convolutional Neural Network. Applied Sciences. 8 (12): 1—19.
  18. Savin-Baden, Maggi (2018). Digital Immortality and Virtual Humans (PDF). Postdigital Science and Education. 1 (1): 87—103. doi:10.1007/s42438-018-0007-6.
  19. Newell, Bryce Clayton (2010). Independent Creation and Originality in the Age of Imitated Reality: A Comparative Analysis of Copyright and Database Protection for Digital Models of Real People. Brigham Young University International Law & Management. 6 (2): 93—126.
  20. Goering, Kevin (2018). New York Right of Publicity: Reimagining Privacy and the First Amendment in the Digital Age - AELJ Spring Symposium 2. SSRN Electronic Journal. 36 (3): 601—635.
  21. Harris, Douglas (2019). Deepfakes: False Pornography Is Here and the Law Cannot Protect You. Duke Law and Technology Review. 17: 99—127.
  22. Bass, Harvey (1998). A Paradigm for the Authentication of Photographic Evidence in the Digital Age. Thomas Jefferson Law Review. 20 (2): 303—322.
  23. Wen, Jie (2012). A Malicious Behavior Analysis Based Cyber-I Birth. Journal of Intelligent Manufacturing. 25 (1): 147—55. doi:10.1007/s10845-012-0681-2. ProQuest 1490889853.
  24. Maras, Marie-Helen (2018). Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos. The International Journal of Evidence & Proof. 23 (1): 255—262. doi:10.1177/1365712718807226.