Facebook анонсировал систему на базе ИИ для борьбы с «порноместью»

Сегодня, 15 марта, Facebook анонсировал новую систему на базе ИИ, которая предназначена для удаления чужих фотографий в стиле «ню».

Facebook начал борьбу с «порноместью» еще в конце прошлого года. Уже тогда они разработали систему по нахождению и удалению подобных материалов. Но на том этапе, чтобы обезопасить пользователей, им предлагалось выслать собственные фотографии, которые затем использовались для блокировки подобных изображений.

По словам представителей социальной сети, новая система на базе ИИ способна самостоятельно выявлять обнаженные фотографии. Затем программа отправляет их модератору, который и решает, нужно ли блокировать фото или видео или нет.

«Используя машинное обучение и искусственный интеллект, мы теперь можем быстро обнаруживать изображения или видео с обнаженными людьми, которые публикуются без разрешения в Facebook и Instagram. Это означает, что мы можем найти этот контент до того, как кто-либо сообщит о нем. Это важно, так как что зачастую жертвы боятся возмездия и не хотят сами сообщать о контенте, или они не знают о том, что контент был опубликован», — пишут представители Facebook.

Facebook также создал новую страницу в своем Центре безопасности, где рассказывается, какие шаги следует предпринять жертвам «порномести».

Источник: MacDigger.ru

Следите за новостями Apple в нашем Telegram-канале, а также в приложении MacDigger на iOS.

Присоединяйтесь к нам в Twitter, ВКонтакте, Facebook, или через RSS, чтобы быть в курсе последних новостей из мира Apple, Microsoft и Google.


3 комментария

  • У Стилавина где то была тема порноместь 😂
  • Решили не отставать от Кука рассматривающего пeниcы через камеры айфонов! ) Эпл-то им лазейку эту прикрыла, теперь сами отсылать будут!
  • То есть массовые мероприятия по популяризации анального секса между мужчинами поддерживать можно, а фото женских сосков это бан )))))