Facebook сообщила, что тестирует модель на основе искусственного интеллекта (ИИ) для выявления негативных комментариев, в том числе - в закрытых группах.
Facebook представит несколько новых программных инструментов для помощи более чем 70 млн человек, которые ведут и модерируют группы на этой платформе.
Facebook, которым пользуются 2,85 млрд пользователей в месяц, заявил в конце прошлого года, что более 1,8 млрд человек ежемесячно активны в группах, а всего на платформе есть десятки миллионов активных групп.
Искусственный интеллект будет решать, когда рассылать «предупреждения о конфликтах» тем, кто ведет группы. Предупреждения будут отправляться администраторам, если ИИ определит, что разговор в их группе является «спорным или нездоровым», заявили в компании.
Представитель Facebook отметил, что ИИ компании будет использовать несколько сигналов, чтобы определить, когда отправлять предупреждение о конфликте, включая время ответа на комментарий и объем комментариев к посту.