Будьте осторожны при выборе интернет-друзей

Jun 10, 2015 18:45



Любопытный и как по мне весьма актуальный материал появился на страницах сайта Э Л Е М Е Н Т Ы.ру /сайт замечательный. но может прекратить свое существование, т.к. отчасти финансировался из Фонда Евгения Зимина/.

Речь идет о том, что социальные сети предоставляют нам удобное средство общения, но одновременно способствуют искажению восприятия мира. Причем происходит это за счет двух факторов. С одной стороны, мы выбираем френдов чаще всего близких нам по взглядам (анализируются сообщения политической направленности) , а это уже способствует тому, чтобы в наших френдлентах появлялись новости. которые нам нравятся. Этот эффект усиливается работой поисковиков, которые ищут ответы на запрос прежде всего в часто посещаемых сайтах

Сотрудники «Фейсбука» изучили механизмы, мешающие пользователям знакомиться с альтернативными мнениями



Рис. 1. График, показывающий поляризацию политических взглядов у пользователей «Фейсбука». По горизонтальной оси - «показатель идеологической приуроченности» материала (alignment score), отражающий усредненные политические взгляды пользователей, поделившихся ссылкой на этот материал. Синий цвет соответствует ссылкам, которыми делились преимущественно либералы, красный - ссылкам, популярным среди консерваторов, серый - ссылкам, не имеющим выраженной идеологической приуроченности. По вертикальной оси - популярность ссылок (сколько раз пользователи поделились ссылками на материалы с данным значением показателя идеологической приуроченности; указана доля в общем числе материалов, которыми пользователи сети делились друг с другом). Учитывались только ссылки на материалы, связанные с политикой, социальными проблемами, международными новостями и т. п. Остальные пояснения в тексте. Рисунок из обсуждаемой статьи в Science

Среди социологов в демократических странах растут опасения, что алгоритмы персонализированной фильтрации и ранжирования новостных лент, используемые «Фейсбуком» и другими соцсетями, создают так называемые «пузыри фильтров», мешающие людям знакомиться с альтернативными точками зрения. Предполагают, что это искажает восприятие реальности и чревато негативными социально-политическими последствиями, такими как поляризация общества и утрата способности к конструктивному диалогу между людьми, придерживающимися разных взглядов на актуальные проблемы. Анализ данных по структуре «дружеских» связей и сетевой активности 10 млн американских пользователей «Фейсбука» подтвердил, что как либералы, так и консерваторы получают из своих новостных лент в основном информацию, согласующуюся с их политическими взглядами. Впрочем, эта информационная изоляция далеко не абсолютна, а создается она не столько автоматическими фильтрами, сколько сознательным выбором самих пользователей.

Как известно, многие крупные поисковики (такие как Google) и соцсети (такие как Facebook) фильтруют и ранжируют данные, предоставляемые пользователю, пытаясь «угадать» его желания. Догадки строятся, помимо прочего, на прежних действиях пользователя: какие запросы он делал, какие из предложенных ссылок выбирал и т. п. Это бывает удобно, если ваша цель - заказать пиццу или найти интересный (лично вам) фильм.

Однако у такого удобства есть и обратная сторона. Допустим, вы пытаетесь объективно оценить спектр мнений по поводу какой-нибудь важной политической новости. Если услужливые алгоритмы будут подсовывать вам лишь те мнения, с которыми вы, скорее всего, согласны, у вас в конце концов сложится искаженная картина реальности (см.: Пузырь фильтров). Пользователь может оказаться в так называемой «эхо-камере» (см.: Echo chamber), то есть в замкнутом сообществе, внутри которого единомышленники обмениваются мнениями, с которыми все они согласны и куда нет доступа альтернативным точкам зрения. В итоге человек начинает думать, что его позиция - единственно верная и никаких других взглядов на данную проблему быть не должно. Некоторые социологи в развитых странах усматривают в этом потенциальную угрозу для демократии, поскольку разделение медийного пространства на замкнутые «пузыри» чревато поляризацией общества и утратой способности к конструктивному диалогу с теми, кто думает иначе.

Группа исследователей - сотрудников «Фейсбука» - попыталась оценить масштабы бедствия на основе анализа большого массива данных по сетевой активности 10 миллионов американцев - пользователей этой крупнейшей соцсети. Авторы проранжировали 500 наиболее распространенных формулировок собственных взглядов, определив для каждого пользователя его балл по пятибалльной либерально-консервативной шкале, где -2 соответствует «крайне либеральным взглядам», 0 - «нейтральным», +2 - «крайне консервативным».

Тексты, открывающиеся по ссылкам, исследователи поделили на две группы. В первую попали материалы с политическим оттенком (обсуждения законопроектов, социальных проблем, событий в стране и в мире и т. п.), во вторую - тексты на нейтральные темы: спорт, досуг, путешествия. Тексты классифицировались с помощью большого набора ключевых слов (подробное описание методики можно найти в дополнительных материалах к обсуждаемой статье).

Для анализа использовались ссылки первой группы («политические»), которыми за изученный период поделились как минимум 20 пользователей. Таких ссылок набралось 226 000. Для каждой из них был вычислен «показатель идеологической приуроченности» (ideological alignment score), представляющий собой среднюю оценку политических взглядов тех пользователей, которые поделились данной ссылкой. Авторы подчеркивают, что показатель отражает не идеологическую направленность самого материала, а лишь идеологию пользователей, поделившихся ссылкой на него (что в большинстве случаев совпадает, но не всегда). Если данный показатель у ссылки отрицательный, это значит, что ей делились преимущественно либералы, если положительный - консерваторы. Затем был построен график, на котором по горизонтальной оси откладывался показатель идеологической приуроченности, а по вертикальной - популярность ссылок с таким показателем (сколько раз пользователи поделились ссылками с данным значением показателя) (рис. 1). Двугорбое распределение, демонстрируемое графиком, отражает поляризацию мнений: люди намного чаще делятся ссылками с сильно выраженной идеологической приуроченностью, чем идеологически нейтральными. При этом либералы активно делятся одними материалами, консерваторы - другими. Для сравнения был построен аналогичный график для ссылок второй группы (не имеющих отношения к политике). Распределение получилось совсем другим, одногорбым: самые популярные из ссылок второй группы оказались в равной мере популярными среди либералов и консерваторов.

Очевидно, что, сознательно выбирая друзей-единомышленников, люди сами ограничивают доступ в свою новостную ленту альтернативным взглядам (в данном случае - ссылкам, популярным у противоположной партии). Но на этом фильтрация данных не заканчивается. Следующий этап отбора осуществляют те самые алгоритмы автоматического ранжирования записей в новостной ленте, которые пытаются «угадать», что интересно пользователю, исходя из его предыдущих действий. Последний, третий этап фильтрации опять осуществляется пользователем, который либо идет по ссылке, которую видит в ленте, либо игнорирует ее.

Вид полученной кривой впечатляет. Характерная двугорбая - математики это называют бимодальным распределением.
Люди с выраженными политическими пристрастиями получают большинство новостей соответствующих своим взглядам. Причем не только потому, что сами ищут их на соответствующих сайтах. Услужливый Гугл ищет у разных людей по-разному и... подтверждает правильность вашего взгляда на мир - большинство новостей освещаются с "правильных" позиций.

Читатели, будьте бдительны! Не доверяйте благостной картине мира, которую разворачивает перед вами интернет.
ВЫ сами ее создаете выбирая френдов и посещая "правильные сайты" - потом услужливый автомат ищет уже ответ на запрос на сайтах нужного типа

фильтры, интернет, элементы

Previous post Next post
Up