Ernst & Young оценивает искусственный интеллект
Одна из четырех крупнейших консалтинговых компаний Ernst & Young представила платформу Trusted AI — сервис, который оценивает надежность искусственного интеллекта.
При оценке Trusted AI учитывает следующие факторы: цель модели ИИ, участвует ли человек в работе и на каких технологиях основана модель. Также каждый ИИ оценивает аналитическая модель.
«Оценка зависит и от сложного коэффициента, который учитывает влияние на пользователей и непреднамеренные последствия, например, социальные и этические, — говорится в анонсе Ernst & Young. — Оценка влиятельности и завершенности — еще один фактор снижающий риски от возможных ошибок».
Платформа Trusted AI будет доступна в конце этого года. Она основывается на принципах Ernst & Young, которые компания опубликовала в прошлом году, чтобы изложить свои взгляды на вопросы предвзятости, этики и социальной ответственности. В Ernst & Young считают, что установление доверия предполагает соблюдение стандартов проектирования ИИ, независимую проверку данных и информирование разработчиков ИИ об этических последствиях их работы.
В прошлом году был представлен ряд инструментов и сервисов для обнаружения «предвзятости» ИИ или смягчения ее воздействия, а исследователи MIT представили автоматическое обнаружение «предвзятости» и методы для ее устранения без потери точности результатов.
Источник: VentureBeat