Размер шрифта
-
+

Полный бред! Скептицизм в мире больших данных - стр. 18

 – «делать общим, совместным».

Коммуникация – то, как мы создаем, укрепляем и поощряем наш общий способ описания мира. Вообразите церковную службу или структурированную, заранее продуманную последовательность вечерних новостей. Коммуникации в социальных сетях очень похожи: они формируют и структурируют социальные группы. Отправляя твит, публикуя пост в Facebook>◆, загружая фото в Instagram>◆[28], мы подтверждаем нашу приверженность ценностям и убеждениям определенного онлайн-сообщества. Сообщество реагирует, и эти общие ценности еще раз укрепляются с помощью лайков, репостов, комментариев и ретвитов.

Если я прыгну в бассейн с завязанными глазами, крикну «Марко!» и сделаю это правильно, то моя сеть знакомых откликнется одобрительным хором: «Поло! Поло! Поло!»[29] Обмен новой информацией – вторичная цель при вступлении в социальные сети. В первую очередь они созданы для поддержания и укрепления общих связей. Опасность заключается в том, что в процессе общественный диалог настолько распадается на фрагменты, что восстановлению уже не подлежит. Люди скатываются к племенной эпистемологии, в которой истинность сообщения зависит не столько от фактов и эмпирических наблюдений, сколько от того, кто доносит его до других и насколько оно соответствует мировоззрению сообщества.

Алгоритмы только ухудшают ситуацию. Facebook>◆, Twitter и другие социальные платформы используют алгоритмы, чтобы искать для вас «подходящие» публикации, персонализируя вашу ленту новостей. Эти алгоритмы разработаны не затем, чтобы вы были в курсе событий, – они созданы для того, чтобы вы оставались активными участниками платформы. Их задача – скормить вам информацию, которая достаточно привлекательна, чтобы вы не отправились бродить по другим сайтам или, упаси господь, не легли спать пораньше. Проблема в том, что алгоритмы запускают порочный цикл, предлагая вам всё больше того, что, с точки зрения программы, вы хотите получить, и ограничивая доступ к другим точкам зрения. Как именно устроены алгоритмы, вам не показывают, но ваши лайки, прочитанные вами посты, список друзей, ваши геолокация и политические предпочтения – всё влияет на то, что вам покажут дальше. Алгоритмы выделяют информацию, которая соответствует их представлению о вашей социополитической ориентации, и подавляют альтернативные точки зрения.

Во Всемирной сети мы все подопытные кролики. Коммерческие сайты постоянно ставят крупномасштабные эксперименты, чтобы узнать, что удерживает нас онлайн и повышает вовлеченность. Медиакомпании в интернете экспериментируют с разными видами заголовков, сопутствующими изображениями, даже со шрифтами и с вариантами кнопки «Читать дальше». И в то же время Facebook>◆ и другие платформы предлагают рекламодателям – включая и политиков – функцию обращения к конкретным группам пользователей с сообщениями, составленными так, чтобы учесть их интересы. И эти сообщения даже не всегда явно помечаются как рекламные.

Подумайте о том, чему может научиться YouTube, экспериментируя с рекомендациями различных видео и наблюдая за тем, что выбирают пользователи. Благодаря миллиардам видео, которые смотрят каждый день, и огромным вычислительным ресурсам компания может узнать о человеческой психологии за день больше, чем ученый – за всю жизнь. Проблема в том, что их компьютерным алгоритмам известен лишь один способ удерживать зрителей – рекомендовать им с каждым разом все более экстремальные материалы. Пользователи, которые смотрели ролики левого содержания, будут быстро перенаправлены к экстремально левым конспирологическим теориям. Пользователи, которые предпочитали материалы правой направленности, скоро получат рекомендации посмотреть на белых шовинистов или отрицателей холокоста. Мы столкнулись с этим лично. Пока Джевин и его шестилетний сын в режиме реального времени смотрели видео с Международной космической станции, летающей в 254 милях от шарообразной Земли, YouTube заполнял боковое меню, предлагая ролики о том, что Земля на самом деле плоская.

Страница 18