
Первые компании присоединились к Кодексу этики в сфере искусственного интеллекта
Одна из главных задач нацпроекта «Цифровая экономика» — повышение доверия общества к искусственному интеллекту, а также организация регулярных дискуссий по проблемам этики ИИ. Одной из таких дискуссий и стал международный форум «Этика искусственного интеллекта: начало доверия», который 26 октября прошел на площадке главного офиса ТАСС в Москве.
Финальным аккордом пленарного заседания форума стало подписание Меморандума о присоединении к новому отечественному Кодексу этики в сфере искусственного интеллекта. Первыми участниками соглашения стали такие компании, как «Ростелеком» и «Росатом», »Яндекс» и Mail.ru Group, «Сбер» и Российский фонд прямых инвестиций, «Газпром», ЦИАН, МТС и InfoWatch Натальи Касперской, а также крупнейшие вузы: Высшая школа экономики, МФТИ, Сколковский институт науки и технологий, Институт системного программирования им. В.П. Иванникова РАН, Иннополис и Университет ИТМО.
Предполагается, что уже к началу 2022 года меморандум подпишут представители не менее 100 компаний. За счет этого в самое ближайшее время Кодекс этики в сфере искусственного интеллекта планируется сделать одним из ключевых документов при разработке и применении в России решений на основе ИИ. Отраслевые приложения позволят корректно применять принципы в различных сферах.
Но прежде чем заключить соглашение (кстати, впервые использовав для этого новый мобильный сервис «Госуслуг» под названием «Госключ»), эксперты обсудили проблемы в сфере ИИ, справиться с которыми и поможет новый кодекс. На чем акцентировали внимание участники встречи, расскажем в этой статье.

Назревшее решение
«Мы видим, что внимание к искусственному интеллекту у нас на самом высоком уровне. Президент достаточно часто упоминает искусственный интеллект применительно к заботе о защите прав и свобод наших граждан», — такими словами открыл пленарное заседание вице-премьер Дмитрий Чернышенко.
Он напомнил о том, что именно глава государства в конце 2020 года призвал сообщество российских разработчиков ИИ создать внутренний морально-нравственный кодекс. Как отметил вице-премьер, для начала регулирования этой сферы в РФ создана вся необходимая правовая база: есть Национальная стратегия развития ИИ до 2030 года, утверждена Концепция регулирования в сфере ИИ и робототехники до 2024 года, существует профильный федеральный проект в составе нацпроекта «Цифровая экономика». При этом сами компании (например, «Яндекс», «Сбер» и ABBYY) уже начали постепенно самостоятельно внедрять внутренние корпоративные принципы разработки и применения ИИ, чтобы уберечь программистов от критических ошибок.
«Например, при поисковой выдаче запросов «Как лечить онкологические заболевания с помощью пищевых добавок» — возникает вопрос, как настраивать алгоритмы. Если выдавать весь мусор, мы можем подвергнуть человека риску и вместо эффективной врачебной помощи получить советы каких-нибудь шарлатанов или тех, кто пытается наживаться на горе людей», — заметил Дмитрий Чернышенко.

Наравне с мировыми лидерами
Принятие этического кодекса означает, что теперь РФ наравне с другими 20 с лишним странами входит в «клуб» государств, в которых утверждены подобные документы.
«Россия является одним из лидеров в мире по технологиям искусственного интеллекта. И я рад, что мы используем такие же подходы, как и другие ведущие страны, которые уже на государственном уровне утвердили соответствующие документы», — сказал вице-премьер.
Общероссийский кодекс определяет ключевые принципы и стандарты поведения, позволяющие предотвратить неправомерное использование ИИ, причинение вреда человеку и выход системы из-под контроля. Их применение позволит создавать системы, которые отвечают общемировым требованиям и сфокусированы на таких ценностях, как права и благополучие человека, доверие и надежность, безопасность и служение человеку.
В разработке кодекса участвовали более 500 экспертов, и его положения соответствуют, например, целям устойчивого развития ООН и проекту рекомендаций ЮНЕСКО в сфере ИИ, который планируется ратифицировать к концу 2021 года, — наднациональным документам самого высокого уровня.
«Технологии, платформенные решения трансграничны. Наше регулирование — это, как правило, национальные документы. И поэтому общность этических принципов, которые на уровне государств в своих территориальных границах принимаются, дают основу для ряда таких наднациональных документов, которые регулируют по согласию стран-участников те самые этические принципы. Активно в эту работу включены и Совет Европы, и ЮНЕСКО, и «большая двадцатка», ОЭСР, ну и многие другие организации», — сказал Дмитрий Чернышенко.
При этом Россия принимает активное участие в работе комитетов этих организаций, которые связаны с ИИ. Как с гордостью отметил вице-премьер, это та сфера, в которой наша страна играет роль полноправного участника международных процессов, а не отстающего и догоняющего.
Общероссийский кодекс определяет ключевые принципы и стандарты поведения, позволяющие предотвратить неправомерное использование ИИ, причинение вреда человеку и выход системы из-под контроля.

Вопрос доверия
Одна из важнейших проблем, связанных с искусственным интеллектом, — насколько человек может полагаться на решения, которые предлагает компьютер, доверять им? Согласно данным опроса ВЦИОМ, который привел Дмитрий Чернышенко, в России ИИ доверяют 48% респондентов. По мнению вице-премьера, это уже достаточно высокая цифра, хотя правительству еще предстоит работать над тем, чтобы она выросла.
«По данным международных исследователей, люди старшего поколения, старше 50 лет, более настороженно относятся к ИИ в силу консерватизма или в силу недостатка информации. И многие из них не готовы доверять искусственному интеллекту, ну, например, при внедрении его в области госуправления или государственных услуг. Но я считаю, что это коммуникационная задача, и если права граждан защищены, то, конечно, искусственный интеллект будет скорее во благо», — рассудил Дмитрий Чернышенко.
Однако его оптимизм разделяют не все. Например, первый заместитель председателя правления Сбербанка Александр Ведяхин считает, что 48% отражают только классическое отношение к стакану, который в зависимости от точки зрения можно считать наполовину пустым или наполовину полным.
Генеральный директор Infowatch Наталья Касперская еще более осторожна в оценке результатов опроса ВЦИОМ. По ее мнению, 48% характеризуют людей, которые не понимают, как устроена система ИИ.
«Технологии усложняются, а при этом навыки снижаются. Эти прямые уже, на мой взгляд, пересеклись. Вот это излишнее доверие, 48% доверия о чем говорит? Оно говорит о том, что люди не понимают. Потому что люди, которые понимают, как устроена система искусственного интеллекта, доверяют ей с очень большой осторожностью», — считает Наталья Касперская.

Модель угроз
Положение о том, что ответственность за последствия решений ИИ должна оставаться за человеком, обязательность уведомления человека о том, что в данный момент с ним общается ИИ, запрет на явную и неявную дискриминацию, запрет на причинение вреда человеку, требования к безопасности и конфиденциальности данных — все это предусмотрено в новом кодексе. Благодаря этому глава Infowatch сравнила документ с моделью угроз, которую разрабатывают перед тем, как приступить к созданию любой системы ИИ.
«Сам кодекс, по сути, является такой моделью, в которой часть угроз попытались оценить и предотвратить», — объясняет Наталья Касперская.
К подобным угрозам, например, относятся ошибки ИИ. Эксперт напомнила участникам встречи о недавней ситуации, когда одновременно в двух разных российских городах полиция слепо задержала, как преступников, двух известных людей. Доверие к системе ИИ, указавшей на них, перевесило доверие собственным глазам инспекторов и док ументам «подозреваемых» (у одного из них паспорт все время был с собой).
«Это очень интересно, что люди глазам своим не доверяют, а доверяют системе искусственного интеллекта, которая, как известно, имеет ошибки первого и второго рода. Любая система искусственного интеллекта без исключения. Понятно, что эти ошибки можно стремиться минимизировать. Но тем не менее они все равно будут», — констатировала Наталья Касперская.
Другой пример — выдача кредита. Одному и тому же клиенту банка ИИ может отказать, в то время как живой сотрудник банка может одобрить кредит. В этом случае можно говорить о том, что ИИ принял неправильное решение. При этом, например, в «Сбере», по словам Александра Ведяхина, решение о кредитовании физических лиц почти в 100% случаев принимают именно алгоритмы. Для юридических лиц это происходит в 30% случаев.
В «Сбере» решение о кредитовании физических лиц почти в 100% случаев принимают именно алгоритмы. Для юридических лиц это происходит в 30% случаев.

Еще один риск, о котором всегда нужно помнить при работе с ИИ, — возможность манипуляций.
«Все системы искусственного интеллекта строятся на огромном массиве данных. И доступ к этим данным могут получать разработчики и не только разработчики. А это значит, что они могут настраивать системы определенным образом», — напомнила Наталья Касперская.
Наконец, по мнению главы Infowatch, активное использование ИИ способствует просто массовому оглуплению, снижению интеллектуальных способностей людей. Кассиры в магазине, привыкшие к калькулятору, перестают считать в уме даже в простейших ситуациях. Таксисты не знают город и, если в «Яндекс.Картах» произойдет сбой, подобный недавнему многочасовому сбою Facebook, просто не смогут работать. Пилоты отвыкают сажать самолет в ручном режиме и не могут сделать этого в критической ситуации из-за отключения автоматики, в результате чего, как в случае с аварией SuperJet три года назад, в авиакатастрофе гибнут десятки людей.
Учесть все угрозы в кодексе, конечно же, невозможно. Именно поэтому в будущем его, вероятно, будут регулярно пересматривать.
«Мы периодически на какие-то грабли наступаем, нас шлепает по лбу, мы узнаем что-то новое о том, какую очередную угрозу мы пропустили. И, соответственно, в кодекс это тоже будет добавляться. И я думаю, что на каком-то разумном промежутке времени он будет пересматриваться», — считает Наталья Касперская.
Подпишитесь на новости национального проекта