Интернет

Автор: Александра Горохова
Новый ИИ выявляет токсичные комментарии в соцсетях с точностью до 87%
Ученые из Австралии и Бангладеш представили модель машинного обучения, которая, по их словам, может выявлять негатив в Интернете. Алгоритм, продемонстрированный на Международной конференции по инновациям и интеллектуальным технологиям 2024 года, способен с точностью до 87% выявлять токсичные комментарии в социальных сетях, что поможет сократить кибербуллинг и ненависть в сети.
Как заявила ведущий автор исследования Афия Ахсан, цитируемая в пресс-релизе конференции, «рост числа агрессивных комментариев приводит к серьезным психологическим последствиям, включая тревожность, депрессию и даже самоубийства». Ручная модерация, несмотря на усилия платформ, не справляется с объемом контента.
Команда исследователей протестировала три алгоритма машинного обучения на англоязычных и бенгальских комментариях из различных соцсетей. Оптимизированная версия модели показала наивысшую точность – 87,6%, опередив другие алгоритмы (69,9% и 83,4%).
В будущем разработчики планируют улучшить модель с использованием нейросетей и расширить поддержку языков. Сейчас ведутся переговоры с социальными платформами о внедрении технологии для автоматической фильтрации комментариев.
Ранее ITinfo сообщало, что исследователи обнаружили брешь в безопасности Teams и других инструментов Windows.