Новая этИИка: кто отвечает за действия машин?
Исследуем этику искусственного интеллекта. Раскроем, как формируются этические нормы, регулирующие решения ИИ-систем. Кто ответственен за действия интеллектуальных машин: разработчики, пользователи или государство?
700 открытий7К показов
Наверняка любой из вас хоть раз хотел задать GPT неудобный (или даже порицаемый в обществе) вопрос. Алгоритм следующий: вопрос — ответ от сервиса в духе «извините, я не могу делиться такой информацией» — разочарование. Но почему так происходит? Кто решает, на какие вопросы должен отвечать GPT и почему Илон Маск такой параноик?
Этика ИИ — совокупность ценностей, принципов и методик (практик), основанных на соответствующих ожиданию общества стандартах позитивного (правильного) и негативного (неправильного) поведения людей-агентов при разработке, внедрении и использовании технологий. Люди-агенты здесь — все те, кто причастен к функционированию искусственного интеллекта (разработчики, операторы, пользователи).
То есть, вопрос с этикой ИИ ещё более размыт, чем вопрос с, например, врачебной этикой. Ведь помимо устоявшихся стандартов есть тот самый человеческий фактор, препятствующий точному замеру по счетчику «Что такое хорошо, а что такое плохо».
Проблема вагонетки: почему этика ИИ необходима?
Сегодня, когда искусственный интеллект (ИИ) стремительно развивается и внедряется во многие сферы нашей жизни, возникает всё больше этических вопросов, связанных с его использованием. Эксперты сходятся во мнении, что одна из самых известных дилемм в этой области — «Проблема вагонетки».
Проблема вагонетки — это гипотетическая ситуация, в которой вагонетка неуправляемо движется к пяти людям, которые погибнут, если ничего не предпринять. Единственный способ спасти их — переключить стрелку, в результате чего вагонетка убьет одного человека вместо пяти. Этот сценарий ставит перед нами сложный вопрос: что является более этичным — позволить пяти людям погибнуть или стать причиной смерти одного?
Схожие дилеммы могут возникать и в реальном мире при разработке и применении систем ИИ. Как должен действовать алгоритм, например, беспилотного автомобиля в ситуации, когда столкновение неизбежно, и он должен выбрать, кого спасти — пассажиров или пешеходов? Или каким образом медицинская система ИИ должна распределять ограниченные ресурсы, такие как аппараты ИВЛ, во время пандемии?
Эти вопросы демонстрируют важность разработки этических принципов и алгоритмов для ИИ. Без чётких стандартов, встроенных в технологии, алгоритмы могут принимать решения, которые противоречат общепринятым моральным нормам и ценностям. А иногда можно столкнуться с мнением о «Терминаторе» в реальной жизни (привет, Илон Маск) и бояться, что ИИ выйдет из под контроля.
По мере того, как ИИ становится всеобъемлющим, разработка этических принципов его использования приобретает критическое значение. Только так мы сможем гарантировать, что эта технология будет служить на благо человечества, а не создавать новые дилеммы. Несмотря на это, мы можем рассматривать некоторые концепции этической ответственности, позволяющие сделать любопытные выводы.
Концепции этической ответственности в ИИ
Европейцы серьёзно занимаются вопросами этики ИИ. Поэтому были созданы многие организации, регулирующие действия машин (например, Европейская комиссия по этике в области искусственного интеллекта). Удалось выявить некоторые принципы, которые отвечают за этическую ответственность, на основе рекомендаций разных инстанций
1. Принцип благодеяния
- Системы ИИ должны быть спроектированы и внедрены таким образом, чтобы приносить пользу людям и обществу.
- Они должны помогать улучшать человеческую жизнь, а не причинять вред.
- Системы ИИ не должны наносить вреда людям, нарушать их права и свободы.
- Необходимо предотвращать возможные негативные последствия применения ИИ.
3. Принцип справедливости и недискриминации
- Системы ИИ должны быть беспристрастными и не допускать дискриминации по признакам пола, расы, возраста, социального статуса и т.д.
- Необходимо обеспечить равный доступ к благам, предоставляемым ИИ-системами.
4. Принцип прозрачности и подотчётности
- Процессы принятия решений в ИИ-системах должны быть прозрачными и объяснимыми.
- Разработчики и владельцы ИИ-систем должны нести ответственность за функционирование.
5. Принцип уважения автономии человека
- Системы ИИ должны уважать автономию, права и достоинство человека.
- Они не должны подменять или ограничивать права человека и способность к самоопределению.
6. Принцип конфиденциальности и защиты данных
- Разработчики ИИ-систем должны обеспечивать защиту персональных данных пользователей.
- Использование данных должно осуществляться с согласия и в интересах людей.
Но как же человеческий фактор? Безусловно, в отрыве от него будет совершенно неправильно говорить о новой этике. У людей-агентов тоже есть ответственность. Но какая?
Ответственность разработчиков и производителей ИИ-систем
Первое, о чём вспоминают, говоря об этике в ИИ — это ответственность разработчиков и производителей ИИ-систем. Поскольку именно разработчики должны ограничивать случаи, когда нейросеть просят дать оскорбительный для некоторых социальных групп контент или предоставить деструктивный контент.
Это реальная боль разработчиков как отечественных, так и зарубежных GPT-сервисов. Они действительно решали вопрос, как отвечать на подобного рода запросы, отвечать ли вообще, или ставить «заглушки». И сегодняшние чаты, в том числе, учитывают особенности национального законодательства при разработке подобного рода систем.
Также ответственность разработчиков заключается в соблюдении следующих аспектов:
1. Этические принципы проектирования: важно, чтобы при разработке ИИ-систем учитывались этические нормы, такие как справедливость, прозрачность и инклюзивность. Разработчики должны создавать системы, которые не дискриминируют отдельные группы пользователей, и действовать в интересах всех.
2. Прозрачность и подотчётность алгоритмов: пользователи и другие заинтересованные стороны должны понимать, как работают алгоритмы, и кто несёт ответственность за их действия. Прозрачность способствует доверию к ИИ-системам. Поэтому важно ставить метки «создано нейросетью» и т.п. (этим, например, уже занимается Инстаграм*). Ведь мы точно не хотим сталкиваться с сомнительными дипфейками и контентом, который хочет нас обмануть.
*Запрещен в РФ
3. Тестирование и валидация на предмет безопасности и этичности: ИИ-системы должны проходить тщательное тестирование, чтобы минимизировать риски и гарантировать этическое поведение. Сюда входит проверка на наличие предвзятости в данных и алгоритмах, а также обеспечение их корректного функционирования в различных условиях
Кстати, сейчас есть вполне легальный способ производителям доказать свою «этическую эффективность». Это сертификация по стандартам. В России — стандарты ТК-164, технического комитета 164, в рамках которого разрабатываются ГОСТы, касающиеся искусственного интеллекта. Также международные стандарты — ИСА, IEEE и т.д. Если компания прошла сертификацию, то может смело называть себя ответственным игроком ИИ-рынка.
Ответственность пользователей ИИ-систем
Важно и то, как реагируют на информацию пользователи. Ведь большие языковые модели генерируют тексты, которые внешним образом напоминают достойные квалифицированные ответы. Это провоцирует неопытных пользователей избыточно доверять тому, что они получают от моделей.
Такой подход можно наблюдать у Яндекса. Компания внедрила своё решение «Нейро» прямо в поисковик, поэтому любой пользователь мог искать нужную информацию без труда. Проблема в том, что Нейро обучается на данных поиска. Так, если пользователь поверил, что «клюквой можно лечить рак», то это проблема пользователя, а не алгоритма. Ведь в списке сайтов мы чаще всего встречаем Википедию и Ответы Mail.ru, что трудно назвать достоверными источниками.
На самом деле, если мы посмотрим пользовательские соглашения, то практически всегда и везде ответственность переносится на пользователя. Такова правовая реальность этой области.
Ответственность бизнеса
Крупные компании понимают, что играют значительную роль в развитии ИИ. Это можно увидеть на примере событий после презентации GPT-4:
• Март 2023. Свыше 900 экспертов технологической отрасли (в т.ч. сооснователь Apple Стив Возняк и владелец SpaceX Илон Маск) подписали открытое письмо в адрес разработчиков систем искусственного интеллекта (ИИ) с призывом приостановить обучение их сверхпроизводительных систем на шесть месяцев.
Продвинутый ИИ может вызвать серьёзные изменения в истории жизни на Земле, относиться к нему и организовывать работу с ним необходимо с должным вниманием и должными средствами. К сожалению, такой уровень планирования и контроля отсутствует, и это при том, что в последние месяцы ИИ-разработчики упрямо включились в неконтролируемую гонку по созданию и внедрению ещё более мощного цифрового разума, который никто, включая его создателей, не в силах понять, предсказать его действия или надёжно контролировать.
• Май 2023. ИИ-эксперты, журналисты, главы компаний, учёные, представители общественности присоединились к Возняку и Маску.
Минимизация угрозы вымирания [человечества] со стороны ИИ должна быть глобальным приоритетом наравне с минимизацией таких угроз в масштабах общества, как пандемии и ядерная война.
• Ноябрь 2023. «Блетчлинская декларация», общий подход к надзору за ИИ. 27 стран-подписантов, включая США, ЕС, Китай, Канаду,Индию, Израиль, Японию, Чили, Кению, Турцию, ОАЭ, Руанду, Нигерию, Украину.
Ответственность государства
С этической ответственностью государства дела обстоят сложнее. Вопрос заключается в создании монополии на данные, на которых обучаются модели. Потому что эти данные могут предоставляться на разных условиях разным акторам, поэтому не совсем понятно, какая инстанция может регулировать этот вопрос.
Многие эксперты считают, что если государство введёт монополию на данные, возникнет ряд плюсов и минусов. Минусы связаны с наличием рынка, конкурентов, ограничений и появлением прогосударственных компаний, которые будут иметь доступ к этим данным и процветать. А чтобы монополия работала справедливо, в интересах не только рынка, но и граждан, нужна очень сложная законотворческая деятельность, в которой будет продумано, как можно имплементировать принципы безопасности и справедливости.
Но как обстоят дела с законодательством?
А судьИИ кто?
Международные инициативы
Организация Объединенных Наций в настоящее время готовит глобальный договор, касающийся искусственного интеллекта. Первая презентация проекта этого договора была недавно, 5 апреля. Ранее, в начале марта этого года, ООН приняла резолюцию «Использование возможностей безопасных, защищённых и надёжных систем искусственного интеллекта для устойчивого развития».
В рамках этих ЦУР ООН рассматривает искусственный интеллект как один из элементов глобальной политики. ООН отмечает, что цифровой разрыв между развивающимися и развитыми странами только увеличивается. Поэтому, по их мнению, необходимо активизировать международное сотрудничество в области искусственного интеллекта и договориться об общих принципах регулирования этой сферы.
Так, ООН продолжает свои попытки наладить глобальный диалог по теме искусственного интеллекта. Однако это оказывается непростой задачей, поскольку некоторые инициативы ООН вступают в противоречие с национальными культурами и законодательствами ряда стран-участниц.
Законодательная концепция России
Россия, как одна из ведущих стран в области применения искусственного интеллекта, сталкивается с вопросами этики и правовой ответственности не меньше международных коллег. Сейчас принято большое количество законодательных мер.
Так в 2020 году в Москве был запущен пятилетний экспериментальный правовой режим, направленный на разработку и внедрение технологий ИИ в интересах бизнеса. Этот режим установлен Федеральным законом №123-ФЗ, который регулирует вопросы защиты персональных данных граждан, использования псевдоданных, а также распределения ответственности за действия ИИ.
Цель эксперимента — повысить качество жизни населения, эффективность госуправления и деятельности бизнеса за счет применения ИИ, а также сформировать комплексную систему регулирования отношений, связанных с развитием и использованием ИИ.
Параллельно в России ведется работа по разработке этических норм. В 2021 году был принят «Кодекс этики в сфере ИИ», который к 2023 году подписали более 150 российских организаций. Необходимость выработки этических стандартов закреплена в «Национальной стратегии развития искусственного интеллекта на период до 2030 года».
Кроме того, существует «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года», которая предусматривает, что развитие ИИ и робототехники должно основываться на базовых этических нормах и человекоцентризме.
Этические вопросы, связанные с использованием ИИ, требуют внимания всех заинтересованных сторон, включая разработчиков, пользователей, государство, бизнес и общество. Только совместными усилиями можно обеспечить этичное и справедливое использование технологий. Главное, не бояться «Большого брата», а всецело поверить в прогресс.
700 открытий7К показов