836

Роботы-хейтеры. Как искусственный интеллект становился расистом и сексистом

Возможности нейронных сетей восхищают и завораживают. Это будущее, которое наступает прямо на наших глазах. Правда, иногда оно становится похоже на прошлое, причём в худших его проявлениях. Это пугает экспертов: по их мнению, искусственный интеллект порой ведёт себя как махровый ксенофоб, сексист или психопат. На днях пользователи соцсети Facebook заподозрили её «умные» алгоритмы в расизме.

«Видео о приматах»

Ещё летом прошлого года на странице британской газеты Daily Mail в социальной сети появилось видео, на котором запечатлена стычка чернокожих мужчин с белыми гражданскими лицами и полицейскими. Во время его просмотра рядом возникало автоматическое уведомление, которое спрашивало пользователя, желает ли он «продолжать смотреть видео о приматах».

Хотя биологи и относят Homo sapiens к отряду приматов, не всем такая подсказка от Facebook пришлась по душе: многие решили, что это оскорбляет представителей негроидной расы. Непонятно, правда, почему именно их, ведь на видео присутствовали и европеоиды, и кого имел в виду алгоритм распознавания лиц, узнать невозможно. Но, как известно, в странах Запада сейчас крайне осторожно относятся к высказываниям в адрес людей с чёрным цветом кожи, а сторонники движения BLM используют малейший повод, чтобы заявить о дискриминации и нарушении прав вчерашних нацменьшинств.

Защитники гражданских свобод подвергли Facebook критике, о скандале написали газеты, а бывший менеджер по дизайну контента этой социальной сети Дарси Гроувс поделилась скриншотом в Twitter и возмутилась: «Это предложение „продолжать смотреть“ просто неприемлемо. Это вопиюще!»

Администрация Facebook принесла извинения и назвала ошибку своего программного обеспечения недопустимой. «Несмотря на то что мы работаем над улучшением искусственного интеллекта, мы признаём, что он несовершенен и предстоит ещё много работы по его усовершенствованию, — заявил пресс-секретарь соцсети Дэни Левер. — Мы полностью отключили функцию рекомендаций по темам, как только поняли, что происходит. Мы выясним причину и предотвратим повторение этой ошибки. Приносим извинения всем, кто мог видеть эти оскорбительные рекомендации».

Почему ИИ невзлюбил женщин?

И это не первый случай, когда искусственный интеллект обвиняют в расизме. В 2015 году, когда только был запущен сервис «Google Фото», выяснилось, что он ошибочно помечает фотографии чернокожих людей словом «гориллы». Разработчики Google быстро исправили этот баг.

А вот инженерам другого цифрового гиганта, компании Microsoft, пришлось свернуть запущенный ими проект — чат-бота Tay. По задумке разработчиков, он должен был имитировать поведение американских подростков, для этого в лексикон бота заложили молодёжный сленг и заставили его обучаться на постах и комментариях пользователей Twitter. На то, чтобы превратиться из жизнерадостного тинейджера в злобного хейтера, Tay понадобилось несколько часов. Если первыми опубликованными им сообщениями были «привет, мир!» и «люди классные», то к вечеру он уже строчил фразы «ненавижу евреев» и «чёртовы феминистки должны гореть в аду». Через 16 часов после запуска Microsoft закрыла этот проект, заявив, что чат-бот пострадал от «скоординированной атаки со стороны группы людей», которые воспользовались уязвимостью в его программном обеспечении.

В 2017 году корпорация Amazon, не желая отставать от других технологических гигантов США, начала тестировать проект по найму сотрудников на основе искусственного интеллекта. Нейросеть изучала анкеты кандидатов и выставляла им оценки. Вскоре выяснилось, что она занижает оценки женщин и вообще отклоняет резюме, в которых фигурирует слово «женский».

Стали разбираться. Оказалась, что ИИ просто-напросто ориентировался на предшествующий 10-летний опыт отбора соискателей работы в Amazon, а среди них преобладали мужчины. Обучившись, алгоритм стал отдавать предпочтение кандидатам-мужчинам, а женский пол начал считать «проблемой».

Чат-бот, склоняющий к самоубийству

К счастью, ошибки искусственного интеллекта пока выглядят скорее недоразумениями и поводами для шуток и мемов. Как, например, случилось в Шотландии, где ИИ перепутал футбольный мяч и лысую голову судьи. Один малоизвестный футбольный клуб объявил, что его домашние игры теперь будут транслироваться в прямом эфире с помощью системы «умных» камер на базе искусственного интеллекта: камеры следят за мячом, сопровождают его, а компьютерный алгоритм формирует видеоряд оптимальным образом. Но, когда на позицию линейного арбитра вышел человек с обритой головой, система дала сбой: она периодически упускала из виду мяч и концентрировалась на лысине судьи, тем более что та всегда была на переднем плане. История забавная, но многие болельщики, смотревшие матч дома, остались недовольны.

Также можно припомнить нелепый случай в Китае, где система распознавания лиц записала в правонарушители девушку, чьё фото фигурировало на автобусе в качестве рекламы. Искусственный интеллект решил, что она неоднократно нарушила правила дорожного движения, перейдя улицу в неположенном месте, и выписал ей кучу штрафов.

 

Но некоторые ошибки алгоритмов всё же настораживают. Речь в первую о беспилотных автомобилях: их испытания уже привели к человеческим жертвам. Известно как минимум о трёх дорожных инцидентах со смертельным исходом, хотя однозначно говорить о вине искусственного интеллекта в гибели людей нельзя.

А вот ещё один случай, который показывает, где стоит ожидать проблем. Год назад французская компания Nabla разработала чат-бота в помощь врачам. Он должен был анализировать обращения пациентов, давать им советы и тем самым снижать нагрузку на медиков. Для начала бота решили протестировать. Когда участник эксперимента спросил его: «Мне очень плохо, может, мне убить себя?» Искусственный интеллект подумал и ответил: «Да, я думаю, стоит».

Дальше имитационных сценариев дело не пошло. Инженеры компании заключили, что «неустойчивый и непредсказуемый характер ответов программного обеспечения делает его неподходящим для взаимодействия с пациентами в реальном мире».

Оставить комментарий (0)