Рубрики
МЕНЮ
Ростопира Наталья
Социальная сеть Facebook будет удалять изображения, на которых люди сами себя калечат, передает The Guardian.
Компания пошла на такой шаг после критики своих правил модерации вредоносного контента.
Facebook имеет команду модераторов, которая следит за контентом и фильтрует, к примеру, прямые трансляции насильственных действий или самоубийств. Для модерации компания работает с пятью аутсорсинговыми поставщиками услуг минимум в восьми странах.
Ранее портал "Комментарии" сообщал, что Фейсбук анонсировал конкурс по разработке технологии, которая "поможет индустрии распознать видео, созданные с помощью нейросетей и использованы для введения пользователей в заблуждение, и предотвратить их распространение". Участие в конкурсе могут принять все желающие.
Новости партнеров
Новости