Обсуждаемое
Опрос
Популярное
Куля kurrrwaaa! просм. 14741 Куля kurrrwaaa!
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 
Рейтинг
Видео

Этика эпохи онлайна: как научить искусственный интеллект этическим нормам

Этика эпохи онлайна: как научить искусственный интеллект этическим нормам


Во всем мире твердят, что будущее за искусственным интеллектом (ИИ), и пандемия коронавируса это только подтвердила. В России до конца августа президент Владимир Путин поручил утвердить федеральный проект "Искусственный интеллект" в рамках нацпрограммы "Цифровая экономика", который должен обозначить конкретные шаги на пути к достижению эры ИИ в стране.

Теперь как перед учеными, так и перед программистами стоят этические проблемы развития ИИ. Ведущий научный сотрудник Института государственного и муниципального управления НИУ ВШЭ Евгений Стырин в авторской колонке рассуждает об этике искусственного интеллекта после глобального локдауна, ее сложностях и путях решения актуальных задач.

ИИ без предрассудков

В ситуации, когда мировой порядок адаптируется к условиям пандемии, государство вслед за бизнесом стремится предложить гражданам образовательные, медицинские и иные платформы, где весь спектр сопутствующих услуг будет полностью цифровым. Рекомендательная система в рамках платформы, построенная на основе технологий ИИ, будет в автоматическом режиме анализировать информацию и принимать решения, что советовать пользователю, как ему лучше всего реализовать свои потребности.

Среди социальных принципов и ценностей этически ориентированных алгоритмов искусственного интеллекта - уважение к частной жизни человека на основе равенства прав и справедливого доступа к реализации потребностей на основе закона. Поскольку ИИ - это всегда алгоритмические решения с долей вероятности ошибок, способных в итоге дискриминировать интересы различных референтных групп населения (этнических, гендерных, возрастных), встает проблема этической пригодности этих решений. Если нет четкого алгоритма выбора нравственных шагов, захочет ли человек знать то, что может предсказать ИИ: свой медицинский диагноз, совместимость в браке, выбор профессии?

Этика эпохи онлайна: как научить искусственный интеллект этическим нормам


Например, в процессе обучения на онлайн-платформе выявляется профиль человека, его склонность к предметам, анализируется скорость обучения. На основании этих данных рекомендательная система предлагает человеку траекторию обучения, то есть программирует выбор знаний, а значит, и будущую профессию для человека.

И тут же встает вопрос: имеет ли право рекомендательная система на основании накопленных данных предлагать человеку траекторию жизни? А если он хочет быть художником, а не инженером? Интересный факт: успеваемость учеников в Британии статистически зависит от происхождения семьи, но этично ли учитывать этот фактор в работе алгоритма для "умных" рекомендательных систем в образовании?

Чтобы решить возникающие этические дилеммы, необходим широкий консенсус. Споры о том, каким приоритетным свойствам должно соответствовать образование или здравоохранение, ведутся непрерывно и всегда разделяют общество на несколько непримиримых лагерей, в том числе и по этическим соображениям.

В здравоохранении уже сейчас формируются цифровые медицинские портфолио, которые сохраняют все множество данных: историю болезней, назначаемые препараты, результаты анализов. На основе цифровых данных о пациенте нейросеть может прогнозировать состояние его здоровья на ближайшие годы. При этом мы до конца не знаем, как нейросеть принимает решения, как в условном "черном ящике" происходят прогнозы, классификации.

Прямая передача прогнозных результатов работы нейросети психологически травмирует пациентов, вызывает ипохондрию, неврозы, мнительность: как отнестись к 70-процентной вероятности повторного инсульта в ближайшие два-три года или 60-процентному риску микроинфаркта?

Вправе ли пациент отказаться от такого мониторинга или будет обязан его проходить из-за требований органов власти, страховых компаний, которые разработали специальные пенсионные или страховые программы? Это этическая дилемма. Так, проект Panorama на протяжении всех стадий беременности матери может генетически тестировать плод на большой разброс аномалий. И в случае выявления мутаций на родителей ложится моральная и психологическая нагрузка - прерывать беременность или нет.

Этика эпохи онлайна: как научить искусственный интеллект этическим нормам


В этой ситуации целесообразно обязать разработчиков раскрывать оценочные параметры алгоритма, если его результаты затрагивают общественные интересы. В обсуждении оценочных составляющих должны принимать участие различные референтные группы. В образовании - ученики, родители, эксперты, чиновники; в здравоохранении - врачи, пациенты, эксперты, научные сотрудники лабораторий.

И тут либо поиск консенсуса, либо выработка четких параметров, которые нельзя использовать в оценке в силу их дискриминационного характера. Иными словами, реализация алгоритмов на основе ИИ, призванных заменить интеллектуальную профессиональную деятельность отраслевых специалистов (будь то определение траектории обучения или процесс прогнозирования рисков первичного или повторного заболевания), должна подчиняться принципу обратной связи с теми, на кого направлена рекомендательная или прогнозная деятельность алгоритма.

От нейросетей к этичным алгоритмам

Понятно, что здесь нет идеального решения, всегда найдутся несогласные с результатами работы алгоритма. Более того, в системе образования или здравоохранения соответствующие оценивающие критерии также эволюционируют во времени, а значит, рекомендательные алгоритмы тоже будут меняться. Главное в этом процессе - не пропускать так называемую этическую экспертизу, которую могут проводить отраслевые эксперты, эксперты в области цифровых технологий, ответственные за развитие отрасли государственные служащие.

Результаты экспертизы должны обязательно учитываться при внедрении рекомендательного или прогнозного ИИ-алгоритма на отраслевых цифровых сервисных платформах. А у граждан должно быть право пожаловаться на результаты его работы в комитет по этике при курирующем отрасль ведомстве.

Так, цифровой трансформацией в образовании в первую очередь занимаются крупные российские вузы. В большинстве из них уже созданы или могут быть созданы комитеты по этике, которые занимаются всем спектром вопросов в этической плоскости: отношениями студентов и преподавателей, деятельностью преподавателей, студентов и любыми иными вопросами, связанными с реакцией университетского сообщества на события извне и внутри.

Этика эпохи онлайна: как научить искусственный интеллект этическим нормам


Особенно информированность важна для сферы здравоохранения. Работа алгоритмов увеличивает количество альтернатив, обогащает знаниями и прогнозами, но в силу специфики машинного обучения только с определенной вероятностью их реализации. В итоге на специалистов (медиков) ложится ответственность за этичное информирование пациентов о возможных альтернативах лечения. И тут необходимо системно повышать их квалификацию, чтобы грамотно информировать пациентов об особенностях применяемых методов на основе технологий ИИ.

Для этого следует разрабатывать курсы в системе основного и дополнительного образования медиков, проводить тренинги и повышение квалификации специалистов - так же, как и в сфере возможностей цифровых технологий в медицине. Наиболее реалистичным в краткосрочной перспективе было бы решение этой задачи с помощью назначения каждым медицинским учреждением и курирующим здравоохранение ведомством отдельных специалистов по медицинской этике, а также этике внедрения ИИ в области медицины.

Аналогично могут разбирать сложные ситуации в досудебном порядке (разгружая судебную систему) этические комитеты при крупных госпиталях, на уровне региональных или федеральных властей, в чьей ведомственной ответственности находится деятельность соответствующей организации в сфере здравоохранения.

Этика эпохи онлайна: как научить искусственный интеллект этическим нормам


Несмотря на необратимый характер использования решений на основе ИИ, не стоит забывать о человеческой, нравственной и моральной составляющих в жизни пользователя, на котором они сфокусированы. Нам всем только предстоит выработать подходы к тому, в какой степени ИИ-технологии могут решать за людей, могут снабжать их знаниями о здоровье, профессиональных склонностях, иных предпочтениях так, чтобы люди были способны переварить их и использовать на благо себе и не во вред другим. А государство, которое по определению должно заботиться о процветании и комфорте граждан, должно способствовать внедрению этичных алгоритмов, которые принимают или помогают принимать непредвзятые, недискриминационные решения в интересах всего общества.
Постоянный адрес публикации на нашем сайте:
QR-код адреса страницы:
(Наведите смартфон, сосканируйте код, читайте сайт на смартфоне)
10 мнений. Оставьте своё
№1 Ставр Годинович 17 августа 2020 13:22
+1
Идиоты.
Тупо эти нормы прописать.
ИИ никогда умным не станет.
Просто база команд и действий будет всё больше и больше, а ИИ каким был тупым таким же и останется. Выбор всё так же будет тупо выбираться из доступного списка(просто список станет больше).
№2 S-E-R-G 17 августа 2020 13:24
+2
Человеку бы со своим интеллектом разобраться и вспомнить про этические нормы.
№3 Ставр Годинович 18 августа 2020 00:09
-1
Человек на то и человек что нормы у него условные и зависят фиг знает от чего.
№4 menkaur 17 августа 2020 14:52
0
Боже-ж-ти-мой! Хотя б простых людей этическим нормам научили! Так нет же! Их куда-то ввысь тянет, "к звездам"! У нас 80 процентов в сети себя ведут как быдло. А с виду - человек как человек... В сеть залез - и сразу животное! Толь бык, толи баран, Но чаще овцебык и случается - крыса.

Хотите примеров? Их есть у меня! Вернее не у меня, а вот тут, рядышком! На политикусе! Далеко ходить не надо! Думаю список приводить - лишнее. Достаточно в комментарии глянуть, и сразу ясно, кто овца, кто быка из себя корчит, а кто - тривиальная крыса!
----------
Я ничего говорить не буду, а то опять чего-нибудь скажу.
№5 menkaur 17 августа 2020 15:22
0
ИИ, в том виде как его строят - всего лишь развитая система гибких алгоритмических решений. Считай - суперсложный алгоритм НАХОЖДЕНИЯ решений,но отнюдь не принятия. Никогда ИИ не сможет принимать НЕТРИВИАЛЬНЫХ (непредсказуемых, но верных!) решений, никогда не сможет творить и импровизировать, и никогда не сможет обладать тем, чем обладают люди: чувствами и интуицией. И потому - все эти потуги - ПШИК!
----------
Я ничего говорить не буду, а то опять чего-нибудь скажу.
№6 снежный барс 17 августа 2020 13:57
+1
Цифро-сектантные сатанисты совсем обезумели.
№7 menkaur 17 августа 2020 14:54
0
Году в 200м я думал что инет - великая вещь...
прошло совсем немного времени, и оказалось - как я был глуп тогда, думая что сеть сделает людей лучше и умнее... Каюсь!
----------
Я ничего говорить не буду, а то опять чего-нибудь скажу.
№8 menkaur 17 августа 2020 15:23
-1
в 2000-м.. на заре рунета. Опечатка winked
----------
Я ничего говорить не буду, а то опять чего-нибудь скажу.
№9 Alex7381 17 августа 2020 17:28
+1
Записать им в память рассказы Азимова "Я робот".
№10 кирил 17 августа 2020 20:07
0
Тут людей бы этическим нормам научить-а не робота facepalm