Однако пляжные снимки, фотографии спортсменов с оголённым торсом, статуи и подобные фото заблюривать система не будет. В основе нового подхода к контенту лежит мнение пользователей соцсети, которое разработчики изучили в результате проведённого опроса. Люди отметили, какие фото считают неприемлемыми.
ML-модели обучены на 6 млн файлов. Одна модель сканирует изображение для определения содержимого, вторая относит фото к определённой категории контента, за счёт чего изображение или остаётся, или размывается.
При этом пользователь может увидеть такое фото, если нажмёт на него.