Читати книгу - "Війна лайків"
Шрифт:
Інтервал:
Добавити в закладку:
Таким чином, найбільша небезпека нейронних мереж полягає в їхній універсальності. Хай яка розумна ця технологія, їй байдуже, як її використовують. Ці мережі не відрізняються від ножа, пістолета чи бомби – вони гострі з двох боків, як і сам Інтернет.
Уряди багатьох держав з авторитарною формою правління ласо позирають на нейронні мережі, що можуть засвоювати мільйони облич, повідомляти про «сумнівні» висловлювання та виводити приховані схеми в накопиченій віртуальній активності своїх громадян. Очевидний кандидат – Китай, система фільтрування за ключовими словами та соціального кредиту якого сильно виграє від запровадження розумних алгоритмів. У 2016-му Facebook нібито почав розробляти таку «розумну» систему цензури в надії вивести її на великий китайський ринок. Це було огидне повторення того, як Sun Microsystems та Cisco колись змовилися створити Великий брандмауер Китаю.
Але щоб перетворити нейронну мережу на зло, не обов’язково потрібна авторитарна держава. Будь-хто може створити й навчити систему використовувати безкоштовні інструменти з відкритих джерел. Вибух інтересу до таких систем призвів до тисяч нових способів їхнього застосування. Деякі можна описати як «корисні», інші – як «дивні». Але окремі, незважаючи на те, що розроблені вони з найкращими намірами, справедливо називають «замудровано страшними».
Ми вже бачили, що навіть очевидним вигадкам («Світ плаский»; «Піцерія – таємна секс-в’язниця для неповнолітніх») легко набути розголосу по всьому Інтернету. Нейронні мережі можуть суттєво погіршити проблему створення так званих «глибинних фейків».
Так само вони здатні вивчати записані висловлювання, бази даних слів та звуків, щоб вивести складники мови – тон, ритм, інтонацію – і навчитися майже ідеально імітувати голос того, хто говорить. Ба більше: мережа може використовувати свою голосову майстерність для приблизної оцінки слів та фраз, яких вона ніколи не чула. Хвилинного аудіо достатньо, щоб ці системи вміло зімітували особливості мови людини. Протягом кількох годин вони доведуть її до досконалості.
Один такий стартап «синтезу мови» під назвою Lyrebird шокував світ у 2017-му, коли опублікував запис напрочуд переконливої й абсолютно фейкової розмови між Бараком Обамою, Гілларі Клінтон та Дональдом Трампом. Ще одна компанія презентувала інструмент редагування, який назвала «Фотошоп для аудіо», показавши, що змінити чи додати нові біти мови до аудіофайлу можна так само легко, як підправити зображення.
Нейронні мережі можуть синтезувати не лише те, що ми читаємо та чуємо, але й те, що бачимо. У 2016-му команда комп’ютерних та аудіовізуальних фахівців продемонструвала, як із двовимірної фотографії можна створити фотореалістичну тривимірну модель людського обличчя. Вони показали це на прикладі покійної легенди боксу Мухаммеда Алі, перетворивши одну-єдину світлину на гіперреалістичну маску обличчя, готову для анімації та поміщення у віртуальний світ – і здатну переписати історію того, що робив та казав Мухаммед Алі, коли був живий.
Цю технологію можна використовувати і для зміни теперішнього чи майбутнього. Використовуючи звичайні веб-камери, команда фахівців вивчала «розпізнавання обличчя» об’єкта: пропорції його рис та особливості руху губ, брів та лінії підборіддя. Потім дослідники вивчали розпізнавання обличчя іншої людини в записаному раніше відео, наприклад в інтерв’ю з Арнольдом Шварценеґґером чи промові Джорджа Буша. Після цього фахівці поєднували два розпізнавання через «деформаційну передачу», переводячи рухи першого обличчя в пропорційні рухи другого. Фактично об’єкт міг використовувати власне обличчя, щоб контролювати вирази людини на екрані, все у реальному часі. Якщо маленька жіночка перед веб-камерою відкривала рот, те саме робив і несправжній Арнольд Шварценеґґер. Якщо середнього віку добродій з коротким волоссям і борідкою швидко ковтав слова, здіймаючи брови, те саме робив і фотореалістичний Джордж Буш. Самі дослідники сказали про це так: «Ці результати важко відрізнити від реальності, і часто можна не помітити, що контент несправжній».
Нейронні мережі можна використовувати і для створення глибинних фейків. Замість просто вивчати зображення, щоб дізнаватися назви різних об’єктів, ці мережі можуть навчитися виробляти нові, ніколи раніше не бачені версії потрібних об’єктів. Їх називають «генеративними мережами». У 2017-му комп’ютерники представили генеративну мережу, здатну створювати фотореалістичні синтетичні зображення на вимогу, лише за ключовим словом. Запитайте «вулкан» – і отримаєте виверження або якісь знайомі ландшафти, яким насправді немає відповідників. Інша система створювала синтетичних знаменитостей – обличчя людей, яких не існувало, але в яких реальні люди готові були впізнавати голлівудських зірок.
За допомогою таких технологій користувачі зрештою матимуть здатність викликати в уяві переконливу подібність будь-якої сцени або людини, яку вони або штучний інтелект можуть уявити. Оскільки це зображення справді оригінальне, буде неможливо визначити підробку, застосовуючи старі методи. А ще генеративні мережі можуть робити те саме з відео. Вони вже створили похмурі заплутані ролики про «пляж», «дитину» чи навіть «гольф». Вони також навчилися робити статичні зображення (людини на полі, потяга на станції) і створювати короткі відео прогностичного майбутнього (людина йде, потяг рушає). Таким чином фігури на старих чорно-білих фото можна одного дня «оживити», а події, яких ніколи не було, подати онлайн як справжні, задокументовані переконливими відеодоказами.
І нарешті є MADCOM. З цією технологією тісно пов’язаний штучний інтелект, який майже неможливо відрізнити від оператора-людини і який також схильний до зловживання. Сьогодні кмітливий користувач Інтернету ще може відрізнити «справжніх» людей від автоматизованих бот-мереж і навіть багатьох маріонеток (виявляти деяких допомагає русифікована англійська). Незабаром навіть такі непевні ситуації можна буде ніжно згадувати як «добрі старі часи», коли ще можна було мати трохи впевненості, що інші користувачі соцмереж – люди з плоті і крові, а не маніпульовані машини. Дайте MADCOM бот-мережу Twitter, і вона зможе викривляти алгоритмічну відомість якоїсь теми так, що цього ніхто не помічатиме, адже машина створюватиме реалістичні діалоги між багатьма своїми фейковими компонентами. MADCOM не просто стане рушієм циклів новин, а й дуритиме людей і маніпулюватиме їхньою реакцією. Система навіть зможе давати інтерв’ю репортерам, які нічого не підозрюватимуть.
Введіть у MADCOM достатньо аргументів, і система ніколи не повториться. Введіть у неї достатньо інформації про цільову групу – сотні мільярдів точок даних із бази виборців на кшталт «Проекту Аламо», – і вона зможе розкрутити персоналізований виклад для кожного мешканця країни. Ця мережа ніколи
!Увага!
Сайт зберігає кукі вашого браузера. Ви зможете в будь-який момент зробити закладку та продовжити читання книги «Війна лайків», після закриття браузера.