Соціальна мережа Facebook буде використовувати новий алгоритм машинного навчання для модерування публікованого користувачами контенту. Першочерговим завданням алгоритму стане пошук найбільш травмуючих публікацій для їх подальшого видалення.
Сьогодні контент, що порушує правила соцмережі (спам, розпалювання ненависті, пропаганда насильства тощо) зазвичай позначають самі користувачі або алгоритми машинного навчання. З найбільш очевидними випадками система справляється автоматично, наприклад, шляхом видалення порушуючих правила платформи публікацій або блокуванням акаунта користувача, який опублікував цей контент. Інші випадки потрапляють в чергу для подальшої більш детальної перевірки модераторами.
Зараз у Facebook працюють близько 15 тис. модераторів по всьому світу. Соцмережа неодноразово критикували за те, що адміністрація платформи недостатньо їх підтримує і не наймає більшу кількість персоналу. Завдання модераторів полягає в сортуванні постів зі скаргами, а також ухваленні рішення про те, порушують вони правила соцмережі чи ні.
Раніше модератори розглядали пости в міру публікації. Facebook вирішив змінити підхід для того, щоб в першу чергу розглядати публікації, які набирають більше охоплення і, відповідно, здатні завдати більше шкоди. Модель штучного інтелекту (ШІ) буде використовувати три критерії для відбору найбільш шкідливих публікацій: вірусність, сюжет публікації і ймовірність того, що вона порушує правила. Після цього ШІ буде позначати такі публікації, щоб вони піднімалися вище по черзі розгляду модераторами.
«Весь порушуючий правила соцмережі контент буде як і раніше розглядатися людьми, проте використання нової системи дозволить більш ефективно розставляти пріоритети в цьому процесі», - прокоментували в Facebook.
На думку соцмережі, новий підхід допоможе швидше реагувати і розбиратися з публікаціями, що порушують правила і мають широке охоплення.