BooksUkraine.com » Інше » ХЗ. Хто знає, яким буде майбутнє 📚 - Українською

Читати книгу - "ХЗ. Хто знає, яким буде майбутнє"

152
0
На сайті BooksUkraine.com ви знайдете великий вибір книг українською мовою різних жанрів - від класичних творів до сучасної літератури. "ХЗ. Хто знає, яким буде майбутнє" автора Тім О’Райлі. Жанр книги: Інше. Зберігайте свої улюблені книги у власній бібліотеці, залишайте відгуки та знаходьте нових друзів-читачів. Реєструйтеся та насолоджуйтесь читанням на BooksUkraine.com!

Шрифт:

-
+

Інтервал:

-
+

Добавити в закладку:

Добавити
1 ... 68 69 70 ... 135
Перейти на сторінку:
на користь фактчекерів. Останні виконують роботу не в доповненій реальності. Одна фейкова новина зародилася на Twitter, коли прихильник Трампа Ерік Такер запостив фотографію чартерних автобусів в Остіні, що в штаті Техас. Такер припустив, що команда Клінтон переправляє ними протестувальників напередодні виступу Трампа з промовою. У Такера було всього 40 фоловерів, і він видалив пост, щойно довідався, що автобуси чекали на відвідувачів заходу IT-компанії Tableau. Однак фотографія розійшлася в інтернеті: нею поділилися 16 тисяч разів на твітері і 350 тисяч разів на фейсбуку256. Такер позначив твіт гештегами #фейкпротести #Трамп2016 #Остін, щоб повідомлення прочитали люди, які цікавляться відповідними темами.

Новину підхопив Reddit, блоги правого спрямування, а потім і мейнстримні ЗМІ. Сам Дональд Трамп написав твіт на тему «професійних протестувальників», чим додав оливи у вогонь. Такер геть не очікував такої бурхливої реакції. Проте люди, які поширюють фейкові новини, вміють викликати резонанс. Користуючись спеціальними програмами, вони виявляють, яка інформація приверне найбільшу увагу, поширюють її та сприяють стрімкій по­пулярності фейків. З огляду на те, як швидко нині поширюються топ-новини, навіть професійні журналісти користуються автоматичним моніторингом соцмереж, щоб миттєво знаходити по­пулярні теми і передруковувати новини257. Звісно, при цьому факти ніхто ретельно не перевіряє, а от раніше саме перевірки вирізняли мейнстримні ЗМІ.

До того часу, як небайдужі користувачі або фактчекери позначать фальшивий контент, мільйони людей прочитають його і «розшарять» сотні тисяч разів. Зазвичай подальше оскарження новин уже ні до чого. Такер видалив твіт пізно ввечері того самого дня, коли опублікував, і замінив на другий, де через усю фотографію написав «Хибно»258. Той допис ретвітнули всього 29 разів, а оригінальний — 16 тисяч разів. Пригадується, моя мама часто казала: «Брехня півсвіту облетить, поки правда зав’язує шнурівки».

Останнім часом Google, Facebook та інші ресурси запроваджують корисну практику — маркування сумнівних матеріалів. Це дієво, адже новина поширюється з маркуванням (щоправда, лише коли це зроблено, перш ніж новина розійшлася в інтернеті). Та є нюанси: ніщо не заважає сайту з політичних міркувань чи заради фінансової вигоди створити нову версію того самого фальшивого матеріалу. Як боротися? Уся надія на алгоритмічних джинів, які «вб’ють крота».

Користувачам теж нелегко розрізнити правду й неправду, та й сприймати сигнали мереж про джерела інформації. Згідно зі Стенфордським дослідженням, лише 25 відсотків старшокласників звертають увагу на синє маркування, яким Facebook і Twitter позначають перевірені акаунти259. То що ж тоді дадуть маркування фейкових новин?

Важливо розуміти, що пошуковики й соціальні мережі — це поле бою в онлайн-війні. Агресори використовують інструменти, які колись розробили рекламники — щоб відстежувати активність клієнтів; а згодом шахраї і спамери — щоб обходити систему й примножувати прибутки. Напередодні президентських виборів у США дошкуляла не тільки дезінформаційна атака в соціальних мережах, яку фінансували росіяни. У команди Трампа був Project Alamo, щоб поширювати дезінформацію й знеохочувати виборців Клінтон іти на дільниці. Діяльність передвиборчого штабу в соціальних мережах очолював Бред Парскаль, який назвав пости Project Alamo «чорними». Пости були приватними — адресувалися виключно цільовій аудиторії. За словами Парскаля, «їх мали бачити тільки люди, для яких ми то все писали»260.

Доктор наук Джонатан Олбрайт, який спеціалізується на комунікаціях, проаналізував контент 300 новинних сайтів, що поширювали фейкові новини напередодні виборів 2016-го. Він дійшов виснов­ку, що програми використовуються як мікроцільові інструменти: «Це пропагандистська машина, — писав він. — Людей назавжди захоплюють у полон і тримають на емоційному повідці»261.

«Полон» та «емоційний повідець» — не нові ідеї. Так працювали більшість засобів масової інформації за доби жовтої преси на початку ХХ століття. Із цими методами сотню років борються за допомогою журналістських стандартів, але піти в небуття їм не дали радіо­передачі (а на телебаченні — Fox News). Соцмережі й рекламна бізнес-модель довели процес до логічного кінця.

Цільові кампанії в соціальних мережах, без сумніву, закріпляться в політиці. Онлайн-платформам — і загалом суспільству — доведеться навчитися виживати в новому середовищі. Кульмінація настане тоді, коли ми усвідомимо, що інструменти майстрів дезінформації й пропаганди не відрізняються від повсякденних інструментів великих компаній і рекламних агентств. Усе для того, щоб відстежувати діяльність клієнтів і маніпулювати ними. Не тільки політики зацікавлені у фейкових новинах. Ставки величезні, тому «гравці» готові на все, аби ошукати систему. Проблема зовсім не у Facebook.


Фейкові новини — найнеприємніший побічний ефект бізнес-моделі, на якій базується сучасна інтернет-економіка.


У кіберзлочинах ці інструменти — вже не просто неприємні, а незаконні. Російська бот-мережа, виявлена в грудні 2016 року, створювала відеоролики, які щодня приносили від трьох до п’яти мільйонів доларів рекламних прибутків. Замасковані під користувачів програми забезпечували фейкові перегляди відео262. Тож це війна не тільки з фейковими новинами. Зловмисники можуть створювати фейкових користувачів — віртуальних пішаків у битві кліків і лайків.

Коли шкідники маскують програми під користувачів, людям, що здійснюють нагляд у системі, не впоратися, бо атаки — надто швидкі й грандіозні. Саме тому боротися з фейками й фальсифікаціями в соціальних мережах треба за допомогою алгоритмів. Потрібно щось на зразок спам-фільтрів; не можна покладатися суто на користувачів чи інструменти традиційної журналістики.

Приблизно такою була ідея проекту DARPA Cyber Grand Challenge 2015–2016 років: розробка систем штучного інтелекту для пошуку й автоматичного патчингу вразливих місць у програмах, які айтішники не встигають виявляти. Проблема в тому, що дедалі більше кібератак — автоматизовані. Цифрові вороги знаходять лазівки швидше, ніж люди випускають патчі263.

Джон Лончбері, директор відділу інформаційних інновацій DARPA, розповів мені деякі подробиці Cyber Grand Challenge. Конкурентні системи з безліччю слабинок у безпеці мали виявити й пофіксити проблеми, перш ніж ними скористаються конкуренти. Одна з програм штучного інтелекту перевірила власний вихідний код, знайшла ще одне вразливе місце, окрім того, що навмисне заклали організатори проекту, і скористалася ним, щоб узяти під контроль другу систему. Третя система, яка спостерігала за атакою, діагностувала проблему і пофіксила свій вихідний код. Усе це відбулося за 20 хвилин.

Полковник Повітряних сил США Джон Бойд, якого називають «батьком F-16», розробив концепцію циклу СОРД, що

1 ... 68 69 70 ... 135
Перейти на сторінку:

!Увага!

Сайт зберігає кукі вашого браузера. Ви зможете в будь-який момент зробити закладку та продовжити читання книги «ХЗ. Хто знає, яким буде майбутнє», після закриття браузера.

Коментарі та відгуки (0) до книги "ХЗ. Хто знає, яким буде майбутнє"