Алгоритм может пресечь жестокое обращение с женщинами в Twitter.

твиттер

Жестокое обращение с женщинами в Интернете, в том числе угрозы причинения вреда или сексуального насилия, распространилось на все платформы социальных сетей, но исследователи QUT разработали статистическую модель, которая поможет вытеснить это из сферы Twittersphere.

Адъюнкт-профессор Ричи Наяк, профессор Николас Сюзор и научный сотрудник доктор Мд Абул Башар из QUT разработали сложный и точный алгоритм для обнаружения этих постов в Твиттере.

 

Трансферное обучение

Их статья — «Регуляризация LSTM-классификатора с помощью трансферного обучения для обнаружения женоненавистнических твитов с небольшим обучающим набором» — была опубликована в журнале «Knowledge and Information Systems».

«В настоящее время ответственность за сообщение о жестоком обращении лежит на пользователе. Мы надеемся, что наше решение машинного обучения может быть использовано платформами социальных сетей, чтобы автоматически идентифицировать и сообщать об этом контенте для защиты женщин и других групп пользователей в Интернете», — сказал профессор Наяк.

Как определить неприемлемый контент?

«Ключевой проблемой при обнаружении женоненавистнических твитов является понимание контекста твита. Сложный и шумный характер твитов усложняет задачу. Вдобавок ко всему, научить машину понимать естественный язык — один из наиболее сложных аспектов науки о данных: язык постоянно меняется и развивается, и большая часть смысла зависит от контекста и тона. Итак, мы разработали систему интеллектуального анализа текста, в которой алгоритм изучает язык по мере его продвижения, сначала развивая базовый уровень понимания, а затем дополняя это знание как специфическим для твита, так и оскорбительным языком. Мы реализовали алгоритм глубокого обучения под названием Long Short-Term Memory with Transfer Learning, что означает, что машина может оглянуться на свое предыдущее понимание терминологии и изменить модель по мере ее продвижения, изучая и развивая свое контекстное и семантическое понимание с течением времени».

Хотя система начиналась с базового словаря и строила свой словарный запас на его основе, исследовательская группа должна тщательно отслеживать контекст и намерения, чтобы алгоритм мог различать злоупотребления, сарказм и дружеское использование агрессивной терминологии.

Поделиться в соц. сетях

Опубликовать в Google Buzz
Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Мой Мир
Опубликовать в Одноклассники
Опубликовать в Яндекс

Добавить комментарий

Опрос

Довольны ли Вы нашим сервисом?

Показать результаты

Загрузка ... Загрузка ...