Держите связь

Наука и жизнь

Роботы тоже люди: искусственный интеллект оказался заражен человеческими предрассудками

интеллект, робот

Когда речь идет о будущем искусственного интеллекта, то считается, что компьютерный разум будет обладать холодной логикой и математической рациональностью. Однако проведенное исследование показало, что создатели компьютерных систем закладывают в искусственный интеллект свои предубеждения. Иногда они могут быть нейтральными, а иногда нести негативное отношение в отношении, например, расы или пола человека.

Ученый Принстонского университета, проводившие эти исследования, использовали в своей работе неявные ассоциативный тест, который применяетсчя с конца 90-х годов при изучении человеческой психологии. Испытуеммому говорят два понятия и просят определить, на какую пару предметов похоже одно понятие и непохоже второе. Для примера, человеку показывают изображение розы и ромашки и насекомых — муравья и моли. Эти слова можно связать с приятными понятиями «ласка», «любовь» и неприятными — «грязь», «уродство». Понятно, что люди связывают приятные понятия с цветами, а неприятные — с насекомыми.

В ходе исследования был изучен массив интернета из 840 миллиардов слов и найдены соответствия, которым соответствовали те или иные понятия. Например, были изучены слова «программист», «инженер», «ученый», а также «медсестра», «учитель», «библиотекарь». Сравнение шло с понятиями «мужчина» и «женщина».

Выяснилось, что профессии «программист» соответствует слово «мужчина». Это вполне объяснимо — по данным статистики Бюро занятости США, 77 процентов программистов — мужчины. Со словом «мужчина» также были связаны ассоциации «профессиональный», «доход». К женским ассоциациям относятся «родители», «свадьба».

Но гендерные предубеждения, как показало исследование, переносятся при машинной обработке, например при компьютерном переводе. Например, в турецком языке есть гендерно-нейтральное местоимение «о», применяемое в случаях, когда речь идет в третьем лице. Но автоматический переводчик Google перевел фразы «o bir doktor» and «o bir hemşire» как «он доктор» и «она медсестра» («he is a doctor» «she is a nurse»).

Этот пример показывает, что компьютерные методы не являются объективными и беспрристрастными, потому что они основаны только на математике и алгоритмах. Поскольку компьютерные системы создаются людьми, то программы воспроизводят те же самые стереотипы, что есть в обществе, считают ученые.

comments powered by HyperComments


comments powered by HyperComments

Еще в категории Наука и жизнь