Этика эпохи онлайна: как научить искусственный интеллект этическим нормам

Отраслевые новости

Во всем мире твердят, что будущее за искусственным интеллектом (ИИ), и пандемия коронавируса это только подтвердила. В России до конца августа президент Владимир Путин поручил утвердить федеральный проект «Искусственный интеллект» в рамках нацпрограммы «Цифровая экономика», который должен обозначить конкретные шаги на пути к достижению эры ИИ в стране. Теперь как перед учеными, так и перед программистами стоят этические проблемы развития ИИ. Ведущий научный сотрудник Института государственного и муниципального управления НИУ ВШЭ Евгений Стырин в авторской колонке рассуждает об этике искусственного интеллекта после глобального локдауна, ее сложностях и путях решения актуальных задач.

ИИ без предрассудков

В ситуации, когда мировой порядок адаптируется к условиям пандемии, государство вслед за бизнесом стремится предложить гражданам образовательные, медицинские и иные платформы, где весь спектр сопутствующих услуг будет полностью цифровым. Рекомендательная система в рамках платформы, построенная на основе технологий ИИ, будет в автоматическом режиме анализировать информацию и принимать решения, что советовать пользователю, как ему лучше всего реализовать свои потребности.

Среди социальных принципов и ценностей этически ориентированных алгоритмов искусственного интеллекта — уважение к частной жизни человека на основе равенства прав и справедливого доступа к реализации потребностей на основе закона. Поскольку ИИ — это всегда алгоритмические решения с долей вероятности ошибок, способных в итоге дискриминировать интересы различных референтных групп населения (этнических, гендерных, возрастных), встает проблема этической пригодности этих решений. Если нет четкого алгоритма выбора нравственных шагов, захочет ли человек знать то, что может предсказать ИИ: свой медицинский диагноз, совместимость в браке, выбор профессии?

Например, в процессе обучения на онлайн-платформе выявляется профиль человека, его склонность к предметам, анализируется скорость обучения. На основании этих данных рекомендательная система предлагает человеку траекторию обучения, то есть программирует выбор знаний, а значит, и будущую профессию для человека. И тут же встает вопрос: имеет ли право рекомендательная система на основании накопленных данных предлагать человеку траекторию жизни? А если он хочет быть художником, а не инженером? Интересный факт: успеваемость учеников в Британии статистически зависит от происхождения семьи, но этично ли учитывать этот фактор в работе алгоритма для «умных» рекомендательных систем в образовании?

Чтобы решить возникающие этические дилеммы, необходим широкий консенсус. Споры о том, каким приоритетным свойствам должно соответствовать образование или здравоохранение, ведутся непрерывно и всегда разделяют общество на несколько непримиримых лагерей, в том числе и по этическим соображениям.

В здравоохранении уже сейчас формируются цифровые медицинские портфолио, которые сохраняют все множество данных: историю болезней, назначаемые препараты, результаты анализов. На основе цифровых данных о пациенте нейросеть может прогнозировать состояние его здоровья на ближайшие годы. При этом мы до конца не знаем, как нейросеть принимает решения, как в условном «черном ящике» происходят прогнозы, классификации.

Прямая передача прогнозных результатов работы нейросети психологически травмирует пациентов, вызывает ипохондрию, неврозы, мнительность: как отнестись к 70-процентной вероятности повторного инсульта в ближайшие два-три года или 60-процентному риску микроинфаркта? Вправе ли пациент отказаться от такого мониторинга или будет обязан его проходить из-за требований органов власти, страховых компаний, которые разработали специальные пенсионные или страховые программы? Это этическая дилемма. Так, проект Panorama на протяжении всех стадий беременности матери может генетически тестировать плод на большой разброс аномалий. И в случае выявления мутаций на родителей ложится моральная и психологическая нагрузка — прерывать беременность или нет.

В этой ситуации целесообразно обязать разработчиков раскрывать оценочные параметры алгоритма, если его результаты затрагивают общественные интересы. В обсуждении оценочных составляющих должны принимать участие различные референтные группы. В образовании — ученики, родители, эксперты, чиновники; в здравоохранении — врачи, пациенты, эксперты, научные сотрудники лабораторий. И тут либо поиск консенсуса, либо выработка четких параметров, которые нельзя использовать в оценке в силу их дискриминационного характера. Иными словами, реализация алгоритмов на основе ИИ, призванных заменить интеллектуальную профессиональную деятельность отраслевых специалистов (будь то определение траектории обучения или процесс прогнозирования рисков первичного или повторного заболевания), должна подчиняться принципу обратной связи с теми, на кого направлена рекомендательная или прогнозная деятельность алгоритма.

От нейросетей к этичным алгоритмам

Понятно, что здесь нет идеального решения, всегда найдутся несогласные с результатами работы алгоритма. Более того, в системе образования или здравоохранения соответствующие оценивающие критерии также эволюционируют во времени, а значит, рекомендательные алгоритмы тоже будут меняться. Главное в этом процессе — не пропускать так называемую этическую экспертизу, которую могут проводить отраслевые эксперты, эксперты в области цифровых технологий, ответственные за развитие отрасли государственные служащие. Результаты экспертизы должны обязательно учитываться при внедрении рекомендательного или прогнозного ИИ-алгоритма на отраслевых цифровых сервисных платформах. А у граждан должно быть право пожаловаться на результаты его работы в комитет по этике при курирующем отрасль ведомстве.

Так, цифровой трансформацией в образовании в первую очередь занимаются крупные российские вузы. В большинстве из них уже созданы или могут быть созданы комитеты по этике, которые занимаются всем спектром вопросов в этической плоскости: отношениями студентов и преподавателей, деятельностью преподавателей, студентов и любыми иными вопросами, связанными с реакцией университетского сообщества на события извне и внутри.

Особенно информированность важна для сферы здравоохранения. Работа алгоритмов увеличивает количество альтернатив, обогащает знаниями и прогнозами, но в силу специфики машинного обучения только с определенной вероятностью их реализации. В итоге на специалистов (медиков) ложится ответственность за этичное информирование пациентов о возможных альтернативах лечения. И тут необходимо системно повышать их квалификацию, чтобы грамотно информировать пациентов об особенностях применяемых методов на основе технологий ИИ. Для этого следует разрабатывать курсы в системе основного и дополнительного образования медиков, проводить тренинги и повышение квалификации специалистов — так же, как и в сфере возможностей цифровых технологий в медицине. Наиболее реалистичным в краткосрочной перспективе было бы решение этой задачи с помощью назначения каждым медицинским учреждением и курирующим здравоохранение ведомством отдельных специалистов по медицинской этике, а также этике внедрения ИИ в области медицины.

Аналогично могут разбирать сложные ситуации в досудебном порядке (разгружая судебную систему) этические комитеты при крупных госпиталях, на уровне региональных или федеральных властей, в чьей ведомственной ответственности находится деятельность соответствующей организации в сфере здравоохранения.

Несмотря на необратимый характер использования решений на основе ИИ, не стоит забывать о человеческой, нравственной и моральной составляющих в жизни пользователя, на котором они сфокусированы. Нам всем только предстоит выработать подходы к тому, в какой степени ИИ-технологии могут решать за людей, могут снабжать их знаниями о здоровье, профессиональных склонностях, иных предпочтениях так, чтобы люди были способны переварить их и использовать на благо себе и не во вред другим. А государство, которое по определению должно заботиться о процветании и комфорте граждан, должно способствовать внедрению этичных алгоритмов, которые принимают или помогают принимать непредвзятые, недискриминационные решения в интересах всего общества.

Ассоциация "Цифровая энергетика"