От наживки до прозрачности переосмысление мира онлайн

Поляризация, теории заговора, поддельные новости: то, что люди видят в Интернете, во многом определяется непрозрачными алгоритмами всего нескольких корпораций. Это тревожное событие для демократических обществ. Но онлайн-среды могут быть спроектированы таким образом, чтобы обеспечить автономию и прозрачность, тем самым способствуя положительному потенциалу Интернета. Группа исследователей из Института человеческого развития Макса Планка в Берлине, Бристольского университета и Гарвардской школы права подошла к этим дебатам с точки зрения поведенческой науки и предложила меры, способствующие продвижению более демократичного Интернета. Их результаты были опубликованы в журнале Nature Human Behavior, по информации сайта forumssity.ru.

Вы просматриваете свой канал на YouTube, Facebook или Twitter, когда появляется видео: отчет о тайных политических сделках, заговорах СМИ или фальшивых научных исследованиях. Кажется, все подкреплено фактами. Видео имеет сотни тысяч кликов и, похоже, набирает обороты по всему миру. И многие зрители, похоже, с этим согласны, дав «большие пальцы». Но что именно все это значит? Это делает видео заслуживающим доверия? Сколько зрителей смотрели видео до конца; сколько осталось на полпути? И почему видео появилось в вашей ленте в первую очередь? Онлайн-платформа знает много ответов, но не делится этой информацией. И никаких других подсказок, которые могли бы помочь вам оценить содержание, качество или достоверность видео, нет.

Согласно отчету Reuters от Digital Reuters за 2019 год, более половины (55%) пользователей Интернета в мире теперь используют социальные сети или поисковые системы, чтобы не отставать от новостей. Другими словами, общественное мнение в значительной степени формируется онлайн-контентом, который, в свою очередь, определяется алгоритмами. «Цель состоит в том, чтобы пользователи как можно дольше оставались довольными, чтобы они оставались на платформе. Это достигается путем предоставления развлечений и создания ощущения благополучия - что, вероятно, объясняет, почему многие платформы не имеют кнопок« неприязни » которые позволяют пользователям опровергать контент. Передается такое чувство: вы правы. Это может быть безвредно, когда мы делимся личным контентом, таким как праздничные фотографии, но это искажает картину, когда распространяются радикальные мнения и неправда ». говорит соавтор Стефан Левандовски,

Другая проблема заключается в том, что алгоритмы новостной ленты отображают только контент пользователей, основанный на их предыдущем поведении в Интернете - они, вероятно, с этим согласятся. Другие точки зрения, как правило, не показаны вообще. Это создает сети пользователей-единомышленников, которые укрепляют общие мнения и создают иллюзию широкой поддержки, даже если мнение на самом деле не широко распространено. Но как пользователи могут отличить поддельные новости от фактов? И как онлайн-среды должны быть разработаны для поддержки этих усилий? «Предлагаемые нами меры направлены на то, чтобы дать отдельным пользователям возможность принимать обоснованные и автономные решения в онлайн-средах - в идеале, без необходимости полагаться на независимые контролеры фактов. Архитектура онлайн-сред влияет на поведение пользователей. Чтобы изменить эту среду к лучшему ,

Исследовательская группа определила ряд способов помочь пользователям оценить качество интернет-контента и понять механизмы, лежащие в основе алгоритмов - без ограничения свобод, лежащих в основе оригинальной философии Интернета. Эти возможности технологически осуществимы, но пока в значительной степени не используются. Исследовательская группа разработала конкретные рекомендации для расширения возможностей людей в Интернете, опираясь на два подхода из поведенческих наук: подталкивание и повышение.

Целью подталкивания является управление поведением людей путем выделения важной информации без наложения правил или запретов. Повышение направлено на повышение компетенции людей в принятии решений, позволяя им самостоятельно ориентироваться в ситуациях и принимать более правильные решения. По словам исследователей, важно использовать многосторонний подход, чтобы охватить как можно больше людей. Например, можно использовать подталкивание, чтобы указать, соответствует ли контент определенным критериям качества, например, связан ли он с надежными источниками. Это будет побуждать пользователей тщательно проверять контент и создавать структуру стимулов для производителей контента, чтобы они соответствовали требуемым критериям. Включение гиперссылок на проверенные источники было бы еще одним шагом. Википедия может служить здесь моделью: Ссылки и перекрестные ссылки, которые он предоставляет, помогают контекстуализировать представленную информацию. Twitter недавно сделал шаг в этом направлении и начал отмечать некоторые твиты предупреждением о проверке фактов, включая твит Дональда Трампа на тему голосования по почте.

Сдвиг также может передавать дополнительную информацию о поведении других пользователей в Интернете, предоставляя дополнительный контекст о том, как другие оценивают контент. Например, число лайков можно установить по отношению к общему количеству читателей: «Эта статья понравилась 4287 из 1,5 миллионов читателей». Информация о том, что в статье было 44 000 кликов, но только 3000 пользователей прочитали ее до конца, может быть лучшим показателем качества, чем количество кликов и лайков. Было показано, что прозрачные числовые форматы могут улучшить медицинские решения. Почему то же самое не относится к Интернету? Такой подход может предотвратить формирование эхо-камер, в которых группы людей ошибочно полагают, что их мнение широко распространено и принято.

Другая возможность может заключаться в том, чтобы пользователям было немного сложнее делиться информацией, когда статья не цитирует внешние ссылки. Например, пользователям может потребоваться щелкнуть мимо всплывающего окна с предупреждением об отсутствии ссылок. Другой тип подталкивания может быть нацелен на то, как контент организован в браузерах, то есть на способ, которым лента новостей сортирует контент. Четкое разграничение типов контента, таких как мнения, новости или сообщения друзей, может сделать новостные ленты более прозрачными.

Повышение, напротив, направлено на повышение компетенции пользователей в долгосрочной перспективе. Это может, например, означать, что люди могут настраивать порядок сортировки своих новостных лент, позволяя им изменять свои настройки, чтобы отразить, какие факторы наиболее важны для них, и какой контент они хотят видеть первым. Социальные сети могут быть обязаны указывать, почему некоторые материалы взвешиваются и показываются первыми, в то время как другим контентам присваивается более низкий приоритет. Другим примером повышения может быть представление исходного источника фрагмента информации и маршрута, по которому он достиг пользователя. Простые деревья решений могут помочь пользователям в пошаговом процессе проверки происхождения, контекста и качества онлайн-контента. Другими словами, пользователям будут предоставлены инструменты, которые сами станут проверять факты. В долгосрочной перспективе они научатся распознавать закономерности,

«Интерактивный характер социальных сетей может быть использован для содействия разнообразному демократическому диалогу и развитию коллективного интеллекта. Наша цель - найти способы усилить потенциал Интернета для информирования процессов принятия решений в демократических обществах, поддерживая их, а не подрывая их. Глобальные проблемы Подобно изменению климата и пандемии коронавируса, требуются скоординированные коллективные решения. И это делает демократически взаимосвязанный онлайн-мир крайне важным », - говорит Ральф Хертвиг, директор Центра адаптивной рациональности в Институте развития человека Макса Планка.


Предыдущая статья
Следущая статья


Вернуться