Facebook внедряет новые технологии по борьбе с терроризмом

16 Июня 2017, 16:29
АВТОР
Подпишитесь на наш
Telegram-канал
и узнавайте новости первыми!
EPA/GIAN EHRENZELLER  16 Июня 2017, 16:29
16 Июня 2017, 16:29
2225
Фото: EPA/GIAN EHRENZELLER

Администрация Facebook тестирует новое программное обеспечение по борьбе с пропагандой терроризма и экстремизма в социальной сети, передает ТАСС.

Эти технологии опираются на элементы искусственного интеллекта и позволяют реже задействовать людей при принятии решения об удалении или блокировании запрещенного контента.

«Контекст имеет первостепенное значение в тех случаях, когда мы имеем дело с визуальным изображением, касающимся терроризма», - отметила начальник департамента глобальной политики управления компании Моника Бикерт.

«Для нас технология является важной составной частью выявления и предупреждения о появлении такого контента. При этом именно люди обладают бесценной возможностью правильно понимать контекст», - добавила она.

В компании информировали, что уже в течение нескольких месяцев ее специалисты испытывают на практике новое ПО, предназначенное для поиска и предотвращения дальнейшего распространения контента экстремистского характера, например, убийство заложников. Еще один набор алгоритмов позволяет выявлять и даже автоматически препятствовать пользователям из числа идеологов терроризма открывать новые аккаунты в соцсети вместо блокированных ранее. Другой инструмент опирается на технологию искусственного интеллекта, «обученного» распознавать особенности и нюансы речи, а также письменного стиля изложения вербовщиков.

Как пояснили в компании, эти наработки более эффективны в автоматическом распознавании контента экстремистского толка. Соответственно, сокращается количество случаев, когда требуется вмешательство модератора Facebook, чтобы принять окончательное решение об удалении учетной записи или фрагмента информации.

«Искусственный интеллект теперь способен чаще делать самостоятельный выбор», - заметил куратор отдела противодействия терроризму в компании Брайан Фишмэн.

Наверх