Facebook попал под шквал негативных комментариев о своем научном эксперименте - компания как обычно манипулировала лентой новостей, но в этот раз изучала не просто интерес к тем или иным постам, а эмоциональную реакцию 700 тысяч пользователей.
Во время эксперимента одним пользователям сократили количество "положительных" постов во френдленте, а другим спрятали "отрицательные" посты. Один из авторов эксперимента, сотрудник Facebook Адам Крамер, пояснил, что посты не удалялись, а пессимизировались в ленте, и происходило это лишь при первом обновлении страницы. На страницах друзей пользователи могли видеть все посты.
Крамер говорит, что главная причина эксперимента - забота Facebook об эмоциональном влиянии соцсети на людей. Исследователи хотели лучше понимать, правда ли, что когда люди видят в ленте много радостных постов от друзей, сами они расстраиваются. Ведь расстроенный сегодня пользователь завтра просто не зайдет в Facebook. Крамер говорит, что для эксперимента была выбрана очень маленькая группа - 0,04% пользователей Facebook и выдачу для них изменили лишь на неделю.
Исследователи считали - пишут ли люди сами более грустные статусы, если видят только "печальные" посты, и более радостные, если в их ленте есть только "позитивные" сообщения. Влияние действительно обнаружили, но совсем небольшое - для "отрицательной" ленты люди выдали на 0,1% меньше положительных слов, а для "положительной" - на 0,07% меньше отрицательных.
Пользователей зацепили не результаты эксперимента, а сам факт, что их эмоциями пытались манипулировать. "Легально - не значит этично" - главный посыл комментариев под постом Крамера в фейсбуке, где он пытается объяснить мотивацию компании. А "небольшой процент пользователей" в масштабах Facebook - это почти 700 тысяч пользователей.
Денис Алаев, руководитель социальной сети Мой Мир, в подобном тестировании ничего плохого не видит: "Ведь конечная цель состоит в том, чтобы улучшить сервис, и в итоге от этого выиграет и сам сервис, и его пользователи. Кроме того, как показывает практика, такой способ является наиболее эффективным. Мы постоянно используем A/B-тестирование в Моем Мире, но жалоб практически нет, так как каждый конкретный пользователь видит только один вариант интерфейса".
Но часть из 700 тысяч подопытных может быть эмоционально неустойчивыми, нагнетает Алекс Вильгельм (Alex Wilhelm) в статье на TechCrunch, и "мы не узнаем, добавил ли Facebook больше темных дней для сотен тысяч людей". Да, говорит он, нашими эмоциями давно манипулируют в коммерческих целях, и реклама - самый громкий тому пример, "но это не значит, что мы должны молчать, когда нам показывают, что на самом деле происходит за кулисами". "Ведь, если сегодня Facebook позволил такой эксперимент, то что он позволит себе в будущем?"
"Теперь Facebook знает, как подсадить вас на эмоциональные стероиды, чтобы заставить вас возвращаться, - пишет Кашмир Хил (Kashmir Hill) в Forbes. - Это заставляет меня задуматься - а каким еще психологическим манипуляциям подвергаются пользователи, и о каких манипуляциях они никогда не узнают, потому что о них не напишут в научном журнале?"
Добавить 6 комментариев
А теперь представьте, что они сделают то же самое, но никому не говоря. И не 700 тысячам людей, а всем американцам, под выборы.
да и пусть делают. телевизор делает, радио делает, газеты тоже самое делают, а фэйсбуку нельзя? можно ) вообще любая редакторская работа — это в том или ином виде фильтр, пора бы человечеству уж и привыкнуть
Нет, телевизор, радио, газеты делают совсем другое — они транслируют всем одинаковую картинку. А фейсбук(и гугл) создают такой персональный ад(ну или рай) http://en.wikipedia.org/wiki/Filter_bubble
Мы постоянно используем A/B-тестирование в Моем Мире, но жалоб практически нет, так как у нас же не настоящая соцсеть, а накрутки для отчетов.
> Мы постоянно используем A/B-тестирование в Моем Мире, но жалоб практически нет, так как у нас же не настоящая соцсеть, а накрутки для отчетов. А что бы были жалобы — нужны живые люди ;)
телевизор, газеты делают ровно тоже самое (ориентирование канала на аудиторию, сетка под разные возраста и тп), только не имеют возможности сильно гранулировать информацию, вот и все. принцип тот же, «моральная» база таже самая человечество издревле эксплуатирует фактор доверия и ничего с этим не поделать. дураки верят всему подряд, умные проверяют информацию перекрестно — естественный отбор идет своим ходом )