В Индии Facebook борется с усиленной версией своих проблем

23 октября 2021

Внутренние документы свидетельствуют о борьбе с дезинформацией, языком ненависти и празднованием насилия в стране, крупнейшем рынке компании.

В Индии Facebook борется с усиленной версией своих проблем
4 февраля 2019 года исследователь Facebook создал новую учетную запись пользователя, чтобы посмотреть, каково это - работать в социальной сети в качестве человека, живущего в Керале, Индия.

В течение следующих трех недель аккаунт действовал по простому правилу: следовать всем рекомендациям алгоритмов Facebook по вступлению в группы, просмотру видео и изучению новых страниц на сайте.

Результатом стало наводнение языка ненависти, дезинформации и воспевания насилия, что было зафиксировано во внутреннем отчете Facebook, опубликованном позднее в том же месяце.

"Просматривая ленту новостей этого тестового пользователя, я увидел больше изображений мертвых людей за последние три недели, чем за всю свою жизнь", - написал исследователь Facebook.

Отчет стал одним из десятков исследований и служебных записок, написанных сотрудниками Facebook и посвященных влиянию платформы на Индию. Они служат ярким доказательством одного из самых серьезных упреков, выдвигаемых правозащитниками и политиками в адрес всемирно известной компании: Она приходит в страну, не понимая в полной мере ее потенциального влияния на местную культуру и политику, и не может выделить ресурсы для решения проблем, если они возникают.

С 340 миллионами человек, использующих различные социальные медиа-платформы Facebook, Индия является крупнейшим рынком компании. И проблемы Facebook на субконтиненте представляют собой усиленную версию проблем, с которыми компания сталкивается по всему миру, что усугубляется нехваткой ресурсов и отсутствием знаний 22 официально признанных языков Индии.

Внутренние документы, полученные консорциумом новостных организаций, в который входила газета The New York Times, являются частью более крупного массива материалов под названием The Facebook Papers. Они были собраны Фрэнсис Хауген, бывшим менеджером по продуктам Facebook, которая стала разоблачителем и недавно дала показания в подкомитете Сената о компании и ее платформах социальных сетей. Упоминания об Индии были разбросаны среди документов, поданных г-жой Хауген в Комиссию по ценным бумагам и биржам в начале этого месяца.

Документы включают отчеты о том, как боты и фальшивые аккаунты, связанные с правящей партией страны и оппозиционными деятелями, вносили хаос в национальные выборы. В них также подробно описывается, как план Марка Цукерберга, исполнительного директора Facebook, сосредоточиться на "значимых социальных взаимодействиях", или обмене информацией между друзьями и семьей, привел к увеличению дезинформации в Индии, особенно во время пандемии.

Facebook не имел достаточных ресурсов в Индии и не смог справиться с проблемами, которые он там создал, включая антимусульманские посты, согласно его документам. Восемьдесят семь процентов глобального бюджета компании на время, потраченное на классификацию дезинформации, предназначено для США, и только 13 процентов выделено для остального мира - несмотря на то, что североамериканские пользователи составляют всего 10 процентов от ежедневных активных пользователей социальной сети, согласно одному из документов, описывающих распределение ресурсов Facebook.

Энди Стоун, представитель Facebook, сказал, что цифры неполные и не включают сторонних партнеров компании по проверке фактов, большинство из которых находятся за пределами США.

Такая однобокая ориентация на Соединенные Штаты имела последствия в ряде стран, помимо Индии. Документы компании показали, что во время ноябрьских выборов в Мьянме Facebook установил меры по удалению дезинформации, включая дезинформацию, распространяемую военной хунтой Мьянмы.

После выборов компания свернула эти меры, несмотря на исследования, которые показали, что они снизили количество просмотров провокационных постов на 25,1 процента, а фотопостов, содержащих дезинформацию, - на 48,5 процента. Три месяца спустя военные совершили в стране насильственный переворот. Facebook заявил, что после переворота он ввел специальную политику по удалению восхваления и поддержки насилия в стране, а позже запретил военным Мьянмы доступ к Facebook и Instagram.

В Шри-Ланке люди могли автоматически добавлять сотни тысяч пользователей в группы Facebook, подвергая их воздействию контента, провоцирующего насилие и ненависть. В Эфиопии националистическая молодежная военизированная группа успешно координировала призывы к насилию в Facebook и размещала другой подстрекательский контент.

По словам г-на Стоуна, Facebook инвестировал значительные средства в технологию поиска языка ненависти на различных языках, включая хинди и бенгали, два наиболее распространенных языка. Он добавил, что в этом году Facebook вдвое сократил количество языка ненависти, который люди видят во всем мире.

"В Индии и во всем мире растет число ненавистнических высказываний в адрес маргинальных групп, включая мусульман", - сказал г-н Стоун. "Поэтому мы совершенствуем правоприменительную практику и обязуемся обновлять наши правила по мере развития языка ненависти в Интернете".

В Индии "определенно стоит вопрос о ресурсах" для Facebook, но ответ не в том, чтобы "просто бросить больше денег на проблему", - сказала Кэти Харбат, которая 10 лет проработала в Facebook директором по государственной политике и непосредственно занималась обеспечением безопасности национальных выборов в Индии. Facebook, по ее словам, необходимо найти решение, которое можно применить в странах по всему миру.

Сотрудники Facebook проводили различные тесты и полевые исследования в Индии в течение нескольких лет. Эта работа активизировалась в преддверии национальных выборов в Индии в 2019 году; в конце января этого года несколько сотрудников Facebook отправились в страну, чтобы встретиться с коллегами и поговорить с десятками местных пользователей Facebook.

Согласно служебной записке, написанной после этой поездки, одной из основных просьб пользователей в Индии было то, чтобы Facebook "принял меры в отношении тех типов дезинформации, которые связаны с реальным вредом, в частности, с политикой и напряженностью в религиозных группах".

Через десять дней после того, как исследователь открыл поддельный аккаунт для изучения дезинформации, взрыв террориста-смертника в спорном пограничном регионе Кашмир вызвал виток насилия и всплеск обвинений, дезинформации и заговоров между гражданами Индии и Пакистана.

После нападения антипакистанские материалы начали циркулировать в группах, рекомендованных Facebook, к которым присоединилась исследовательница. Многие из этих групп, как она отметила, насчитывали десятки тысяч пользователей. В другом отчете Facebook, опубликованном в декабре 2019 года, говорится, что индийские пользователи Facebook склонны вступать в большие группы, а средний размер группы в стране составляет 140 000 участников.

В группах, к которым она присоединилась, распространялись графические сообщения, включая мем с изображением обезглавливания гражданина Пакистана и мертвых тел, завернутых в белые простыни на земле.

После того, как исследовательница поделилась своим исследованием с коллегами, ее коллеги прокомментировали размещенное сообщение о том, что они обеспокоены дезинформацией о предстоящих выборах в Индии.

Два месяца спустя, после начала национальных выборов в Индии, Facebook предпринял ряд шагов, чтобы остановить поток дезинформации и языка вражды в стране, согласно внутреннему документу под названием Indian Election Case Study.

В исследовании нарисована оптимистичная картина усилий Facebook, включая добавление большего числа партнеров по проверке фактов - сторонних сетей, с которыми Facebook сотрудничает для проверки фактов - и увеличение объема удаляемой дезинформации. В исследовании также отмечается, что Facebook создал "политический белый список для ограничения пиар-рисков", по сути, список политиков, которые получили специальное освобождение от проверки фактов.

В исследовании не отмечена огромная проблема, с которой компания столкнулась с ботами в Индии, а также такие вопросы, как подавление избирателей. Во время выборов Facebook наблюдал всплеск ботов - или поддельных аккаунтов, - связанных с различными политическими группами, а также усилия по распространению дезинформации, которая могла повлиять на понимание людьми процесса голосования.

В отдельном отчете, подготовленном после выборов, Facebook обнаружил, что более 40 процентов просмотров, или впечатлений, в индийском штате Западная Бенгалия были "поддельными/неподдельными". Одна неаутентичная учетная запись набрала более 30 миллионов просмотров.

Отчет, опубликованный в марте 2021 года, показал, что многие из проблем, упомянутых во время выборов 2019 года, сохраняются.

Во внутреннем документе, который назывался "Вредные сети, созданные противниками: India Case Study, исследователи Facebook написали, что на Facebook существовали группы и страницы, "изобилующие подстрекательским и вводящим в заблуждение антимусульманским контентом".

В отчете говорится, что было несколько дегуманизирующих постов, сравнивающих мусульман со "свиньями" и "собаками", а также дезинформация, утверждающая, что Коран, священная книга ислама, призывает мужчин насиловать членов своей семьи женского пола.

Большая часть этих материалов распространялась в группах Facebook, поддерживающих Раштрия Сваямсевак Сангх, индийскую правую и националистическую военизированную группировку. Эти группы выступали против увеличения численности мусульманского меньшинства в Западной Бенгалии и вблизи пакистанской границы и публиковали на Facebook посты, призывающие к изгнанию мусульманского населения из Индии и продвигающие закон о контроле численности мусульман.

Facebook знал, что на его платформе распространяются такие опасные посты, говорится в отчете, и ему необходимо улучшить свои "классификаторы" - автоматизированные системы, которые могут обнаруживать и удалять посты, содержащие агрессивные и подстрекательские высказывания. Facebook также не решается признать R.S.S. опасной организацией из-за "политической деликатности", которая может повлиять на работу социальной сети в стране.

Из 22 официально признанных в Индии языков Facebook сообщил, что обучил свои системы А.И. пяти. (Но на хинди и бенгальском языках у нее все еще недостаточно данных для адекватного контроля контента, и большая часть контента, направленного против мусульман, "никогда не отмечается и не принимается", говорится в отчете Facebook.

Пять месяцев назад Facebook все еще боролся за эффективное удаление языка ненависти в отношении мусульман. В другом отчете компании подробно описаны усилия Баджранг Дал, экстремистской группы, связанной с индуистской националистической политической партией Бхаратия Джаната Парти, по публикации на платформе постов с антимусульманскими высказываниями.

Facebook рассматривает возможность включения этой группы в список опасных организаций, поскольку она "подстрекает к религиозному насилию" на платформе, говорится в документе. Но пока этого не сделано.

"Вступайте в группу и помогайте управлять группой; увеличивайте число членов группы, друзей", - говорится в одном из постов на Facebook, призывающих рекрутов распространять послания Баджранг Дал. "Боритесь за правду и справедливость, пока несправедливые не будут уничтожены".
49
5020
/nytimes-ru/tech/v-indii-facebook-boretsya-s-usilennoy-versiey-svoikh-problem/
10
2000
ukrtop@mail.ru
/local/components/dev/auto.comments
Оставьте комментарий

Полезно знать

Крупный потребительский кредит Кредит на развитие бизнеса Кредит бизнесу с обеспечением Кредит наличными для бизнеса Овердрафт по упрощенной схеме Факторинг Потребительский кредит Ипотека Кредит под залог квартиры Микрозайм на карту онлайн
Информация

Кредиты для руководителей Кредиты малому бизнесу Кредиты юридическим лицам Экспресс-кредит для бизнеса Кредиты для ИП Продукты для развития бизнеса Кредиты под бизнес-план Кредиты для ООО Кредит на бизнес с нуля Кредит юр.лицам под залог Если не выдают кредит Карта сайта
Сервисы сайта

Конвертер валют Заявка на кредит Кредитный калькулятор Скоринг Аналитика рынка Все о кредитовании Видео о кредитах