ВВС: как Facebook манипулирует мнениями пользователей

  • 10.09.2018, 12:12
  • 8 981
  • Сегодня трудно представить жизнь без информационных технологий, и тот факт, что написанные кем-то компьютерные программы могут влиять на наши решения, вызывает все больше беспокойства. Но действительно ли алгоритмы представляют для нас основную угрозу? Знаете ли вы, что незнакомые люди прямо сейчас отбирают для вас сообщения о событиях, решая за вас, что достойно вашего внимания, а что — нет?

    ВВС: как Facebook манипулирует мнениями пользователей

    Как оказалось, для отбора новостей, которые увидят или не увидят пользователи, Facebook использует команду редакторов. И как это ни парадоксально с точки зрения людей, привыкших жаловаться на предвзятость ИИ, проблема ситуации с живыми редакторами заключается именно в отсутствии прозрачного алгоритма: самая влиятельная платформа для обмена информацией «на глазок» выбирает то, что увидят пользователи.

    Ручная выборка


    Издание Gizmodo, посвященное новостям из мира технологий, впервые подняло эту тему в марте, указав две причины, почему данная информация компрометирует Facebook, даже если в этом нет никакой политической подоплеки.

    Во-первых, наличие наемных редакторов вредит «иллюзии непредвзятого ранжирования новостных материалов». Во-вторых, возможная предвзятость «кураторов раздела новостей» не менее вероятна, чем предвзятость программного обеспечения. Они не имеют четких инструкций и вынуждены руководствоваться расплывчатым понятием «популярные новости», выполняя при этом жесткие количественные нормы ежедневно.

    Иными словами, Facebook вручную фильтрует новости и информацию, используя обобщающие заголовки наподобие «популярных новостей» или критерии вроде «актуальности», причем чаще всего пользователи понятия не имеют о том, как происходит процесс отбора. А ведь это очень важно, так как даже незначительное изменение метода отображения сведений может повлиять на наше поведение.

    Экскурс в психологию


    Чтобы понять, чем это чревато, рассмотрим такое изобретение психологов, как технология «подталкивания«, которой широко пользуются правительства и организации по всему миру.

    Она заключается в том, чтобы незаметно подсказывать человеку, как ему следует себя вести. Показательным примером в данном случае служит презумпция согласия на донорство органов: для их изъятия требуется не наличие согласия человека, а отсутствие письменного отказа. Одной этой презумпции достаточно для того, чтобы существенно увеличить количество доноров.

    Что в этом плохого? Критики технологии отмечают, что люди постепенно разучиваются делать информированный выбор.

    По словам журналиста Ника Хэркэуэя, цель «подталкивания» заключается не в том, чтобы объяснить тот или иной вопрос и подстроить политику под волю народа, а в том, чтобы привести волю народа в соответствие с нужной политикой.

    «Выбор — это навык, привычка, даже небольшое изменение архитектуры мозга. И чтобы его оттачивать, нужна практика», — считает он.

    Как эту технологию следовало бы использовать в онлайн-мире


    Исследуя онлайн-пространство, мы постоянно сталкиваемся с выбором — от того, что купить, до того, во что верить. И специалисты в области информационных технологий вполне могут повлиять на принимаемые нами решения.

    Итальянский философ Лучано Флориди, автор книги «Четвертая революция», описывая этот процесс, вводит термин «этичная конструкция». Под ним Флориди понимает предоставление сбалансированной и ясной информации, которая побуждает человека сознательно принять важное решение и взять на себя ответственность за него. Располагая наиболее актуальной информацией, отмечает философ, мы принимаем наилучшие решения — это один из основополагающих принципов информационных технологий.

    Таким образом, Флориди уверен, что информационные системы должны не противодействовать, а способствовать тому, чтобы человек задумывался над этической стороной того или иного вопроса. Но для этого необходимо избегать излишнего «подталкивания». Не следует вводить презумпцию донорства органов: пусть люди осознанно делают свой выбор. Не стоит никому навязывать готовые ответы о том, что является актуальным: пусть пользователи сами вдумываются, задают вопросы и тем самым совершенствуют систему.

    Однако здесь, к сожалению, существуют фундаментальные противоречия: между удобством и учетом интересов; между тем, чего хотят сами пользователи, и тем, что для них лучше; между прозрачностью и коммерческим преимуществом. А чем больше система знает о вас и чем меньше вы знаете о ней, тем выше риск того, что ваши решения превратятся в набор реакций на скрытые стимулы.

    Так что же делать?


    Разумеется, фильтрацией сведений грешит не только Facebook. Повальное увлечение искусственным интеллектом, всевозможными гаджетами и интернетом вещей возникло во многом благодаря умным системам рекомендаций: ни Google, ни Apple, ни Amazon не пренебрегают технологиями персонализированной подачи информации. За этой проблемой не стоит некий заговор, но у нее нет простого решения.

    Соотношение того, что происходит в мире, и того, что мы в состоянии узнать и осознать, ежедневно смещается в сторону нашей неосведомленности. И хотя умелое сочетание возможностей программного обеспечения и редакторского контроля становится единственным способом фильтровать невероятные объемы информации, накапливающейся по всему миру, тем не менее, стоит помнить, что цели разработчиков технологий, которыми мы пользуемся, отличаются от наших собственных.

    Неважно, кто именно выступает в роли посредника — человек или алгоритм: чтобы успешно ориентироваться в потоке информации, следует смириться с тем, что полностью преодолеть предвзятость невозможно, и с пользой использовать это знание.

    * Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

    Рейтинг:

    (0)
    ITC.UA