Нейросети не позволят пользователям материться

Новый алгоритм "цензурирующей" программы подбирает пользователям синоним к написанным ругательствам. Тестирование нового продукта провела исследовательская компания IBM.

Исследование показало, что новый алгоритм подбирает синонимы в случае обнаружения неподходящих комментариев, содержащих ненависть, вражду, дискриминацию.

Обработав данные из Reddit и Twitter, специальные отметили, что в общей сложности насчитали более 10 миллионов оскорблений и матерных выражений. Разработчики надеются, что нейросеть разовьет толерантность, снизит агрессию, сократит распространение недопустимого контента.

Алгоритм должен проверять тест в момент набора. То есть при написании негативных враждебных комментариев вместо нецензурных слов будут предлагаться альтернативные допустимые выражения.

загрузка...

Коротко

Показать все новости