Разработчикам и программистам рекомендуется следить за использованием искусственного интеллекта (ИИ) в работе, чтобы убедиться, что ИИ не становится расистским или сексистским.
Конфедерация британской промышленности (КБР) в новой статье на тему искусственного интеллекта на рабочем месте призвала к тому, чтобы на предприятиях, где разрабатывается или внедряется ИИ, внимательно следили за развитием технологий, дабы остановить «укоренение существующих несправедливостей и социальных барьеров».
В докладе «AI: Этика на практике» говорится, что различные группы ученых работают над системами искусственного интеллекта, чтобы предотвратить возможные проблемы, связанные с его использованием.
Различные команды призваны следить за данными, которые отправляются в нейросети с целью обнаружить проблемы и скорректировать допущения, которые могут привести к несправедливой предвзятости в алгоритмах ИИ», — пишет КБР.
Ведомство также призвало компании проверить данные, поступающие в системы ИИ, чтобы они не содержали «исторического предубеждения против определенных групп» на случай, если эти данные попадут в ИИ.
В прошлом году онлайн-ритейлер Amazon разработал алгоритм на основе искусственного интеллекта для автоматизации подбора кандидатов на работу, но в итоге отказался от системы.
Проект HR-нейросети, способной самостоятельно нанимать персонал, был закрыт из-за дискриминации соискателей по половому признаку. Искусственный интеллект решил, что женщины по умолчанию неспособны работать, и нанимал в компанию только мужчин. В Amazon хотели скрыть факт существования враждебного ИИ, но информация просочилась в прессу.
По данным Reuters, в 2014 году компания собрала команду разработчиков в Шотландии и поставила перед ней задачу создать программу для поиска и отбора лучших кандидатов. «В компании хотели получить инструмент, который выберет пять лучших резюме из ста, чтобы потом нанять этих людей», — рассказал один из собеседников агентства.
Ответственная группа разработала 500 компьютерных моделей, обученных искать резюме в открытых рекрутинговых базах и отбирать лучших кандидатов на основе 50 тысяч терминов из резюме прошлых соискателей в Amazon. Искусственный интеллект оценивал кандидатов по шкале от одного до пяти.
В 2015 году разработчики заметили, что система подбирает специалистов-женщин меньше, чем мужчин. Команда объяснила это тем, что алгоритм обучался на базе, в которую вошли резюме всех сотрудников Amazon за последние десять лет. Мужчин в выборке оказалось больше, чем женщин, поэтому искусственный интеллект пришёл к выводу, что кандидаты-мужчины предпочтительнее, пишет Reuters.
Amazon отредактировала алгоритм, но корректировка не давала гарантий, что он не будет дискриминировать кандидатов по другим признакам, поэтому к началу 2017 года компания решила отказаться от использования системы.
Исполнительный директор Google Сундар Пичаи также объяснил важность избежания предвзятости в искусственном интеллекте. В своем выступлении в начале этого года он привел пример системы искусственного интеллекта для выявления рака кожи.
Наличие неполных данных, которые игнорируют определенные этнические группы, может сделать систему менее способной идентифицировать рак кожи в определенных группах.
«Чтобы быть эффективным, он должен уметь распознавать самые разные оттенки кожи, характерные для всего населения», — сказал он.