Искусственный интеллект постоянно отдает предпочтение мужчинам, а не женщинам, белым людям, а не цветным, и делает поспешные выводы о работе людей, взглянув на их лица. Сообщает портал techxplore.com.
Исследование ученых впервые показало, что роботы, загруженные общепринятой и широко используемой моделью, работают со значительными гендерными и расовыми предубеждениями
« Робот усвоил токсичные стереотипы с помощью этих ошибочных моделей нейронных сетей », — сказал автор Эндрю Хундт, научный сотрудник Технологического института Джорджии, который руководил работой в качестве доктора философии, студент, работающий в Лаборатории вычислительного взаимодействия и робототехники Джона Хопкинса. «Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно создавать эти продукты, не решая проблем».
Те, кто создает модели искусственного интеллекта для распознавания людей и объектов, часто обращаются к обширным наборам данных, бесплатно доступным в Интернете. Но Интернет, как известно, наполнен неточным и откровенно предвзятым контентом, а это означает, что любой алгоритм, построенный на основе этих наборов данных, может быть связан с теми же проблемами. Джой Буоламвини, Тиминит Гебру и Абеба Бирхане продемонстрировали расовые и гендерные различия в продуктах для распознавания лиц, а также в нейронной сети, которая сравнивает изображения с подписями под названием CLIP.