Посты

Электронный расизм
  • +1
  • 12:35
  • 333
  • Grimnir

В журнале Science опубликовали результаты интересного исследования. Учёные проанализировали степень предвзятости обычной модели с искусственным интеллектом и совместили полученные результаты с известным психологическим тестом, определяющим уровень предвзятости человека. Исследователи повторили все стадии психологического тестирования на машинном интеллекте, пишет Эйлин Кэлискан из Принстонского университета. Поскольку машинное обучение охватывает широкий спектр информации, начиная от перевода и заканчивая сканированием имён в резюме, предвзятость проникает даже в ИИ.

Очевидно, что предубеждения в ИИ появляются из существующих материалов в виде книг и текстов в интернете. Например, в Google Photos некоторые темнокожие пользователи отмечены тегом «горилла». Также известно, что языковые алгоритмы учатся ассоциировать слово «мужчина» со словом «преподаватель», а слово «женщина» — со словом «помощник преподавателя».

Комментарии

Нет комментариев. Ваш будет первым!