В современном мире искусственный интеллект становится неотъемлемой частью нашей повседневности, проникая в различные сферы общества: от здравоохранения и образования до технологических разработок для армии. Вместе с тем люди задаются вопросом о том, как правильно использовать ИИ, ведь технологии влияют на наши решения, социальные взаимодействия и жизнь в целом.
О работе над этикой ИИ, пересечении интересов общества и технологического бизнеса, а также мерах предосторожности в работе с «умными» системами рассказал директор Дальневосточного центра искусственного интеллекта Дальневосточного федерального университета Роман Дремлюга.
– Роман Игоревич, искусственный интеллект появился уже давно, но об этике его использования начали говорить лишь недавно. Почему именно сейчас это стало актуально?
– Существует несколько причин, по которым внимание к этике ИИ в последние три года растет. Во-первых, искусственный интеллект вышел из лаборатории и окружил нас, попал во многие сферы общества. Во-вторых, он стал значительно влиять на наши жизни: от рекомендательных систем в социальных сетях до медицины, выявления правонарушений и так далее. Третья причина – сам бизнес стал спрашивать, как подходить к созданию продуктов с ИИ. Например, компания решает вложиться в разработку продукта. Часто это стоит очень дорого, а процесс разработки – долгий и трудный. Можно пять лет создавать «умное» устройство, выйти на рынок, и вдруг твой продукт не соответствует нормативной рамке, ты проиграл. Чтобы время, деньги и силы не были потрачены впустую, нужно учитывать стандарты, которым должен соответствовать продукт на выходе. Это, на мой взгляд, три основные причины, почему этика так интересна сейчас.
По каким правилам играет искусственный интеллект?
– С ростом популярности ИИ в общество задается вопросом, насколько безопасны нейросети. Как эта озабоченность влияет на развитие этики?
– Компании и государства хотят сказать обществу: «Не бойтесь искусственного интеллекта, в нем нет ничего страшного. Есть правила, по которым эти системы внедряются и используются, не переживайте».
Пионером в области этики ИИ был Google: он запустил большой проект в разных регионах мира, собрал ученых, которые обсуждали, какой должна быть этика искусственного интеллекта. Тогда Google обвиняли во всех смертных грехах: слежке, манипуляции людьми и других вещах. Задачей компании было заявить о том, что они берут на себя обязательства по работе с искусственным интеллектом, говоря и обществу, и государству, что их деятельность прозрачна.
В России сейчас начинается движение в этом же направлении. На рынке появились крупные IT-компании, которые занимаются искусственным интеллектом – значит, должны появиться правила игры. Ведь человек не станет покупать, к примеру, умную колонку, если подозревает, что она может его подслушивать, подсматривать за ним или отправлять его личную информацию куда-либо. Таким образом бизнес стремится показать потребителю, что продукты с ИИ не причинят ему вреда.
Российские ученые сегодня тоже работают в этом направлении, как в свое время работали специалисты, приглашенные Google.
– Какие принципы ложатся в основу вашей работы? На что вы опираетесь?
– Самое главное – прозрачность, чтобы мы понимали, что происходит внутри ИИ. Абсолютной прозрачности по некоторым причинам добиться нельзя: если требовать ее от разработчика – он вряд ли выдаст свои коммерческие тайны и технологические «ноу-хау», на которых он зарабатывает. Тем не менее определенный общественный и государственный контроль над разработкой должен быть.
Любые принципы искусственного интеллекта основываются на человекоцентричности. Мы должны уважать потребности людей и их стремления, не должны унижать их достоинство. В разных странах есть свои особенности: где-то упор делается на безопасность, где-то – на защиту меньшинств, но главное остается всегда – человек должен быть в центре.
– Работа над этикой искусственного интеллекта дает компаниям рекомендации по использованию ИИ, обществу – уверенность в том, что технология безопасна, а что получает наука?
– Важна сама возможность изучения этой области. Этика должна соответствовать и законодательной рамке, и культурным особенностям того или иного общества, и многим другим вещам. Она должна быть экономически и политически выполнима. Это также ориентир для ученых – какие технологии следует разрабатывать, а какие нет, какие из них могут быть неэтичны. Мне кажется, один из вариантов развития событий в этом направлении – создание комитетов по этике искусственного интеллекта наподобие тех, что есть в медицине, чтобы оперативно решать вопросы этичности ИИ.
– Сейчас мы только знакомимся с ИИ и его возможностями. Судя по всему, они гораздо шире, чем мы себе представляем. Как должна развиваться отрасль, чтобы успевать реагировать на изменения в этой технологии?
– В этом случае хороший пример – право. Оно постоянно меняется в зависимости от технологической повестки, ситуации в обществе или политики. Два года назад никто не мог предположить, на что могут быть способны генеративные сети. Они были игрушкой, баловством для «гиков», а сейчас это многомиллионный бизнес, с помощью которого решаются различные задачи. Мы стараемся думать наперед: регулярно проводятся форумы по этике, проходят обсуждения в Совете Федерации. Однако, на мой взгляд, мы можем спрогнозировать только 20-30% от всего, что может произойти с искусственным интеллектом в будущем.
Специалисты, работающие над этикой ИИ, должны реагировать очень быстро. Раньше, когда появлялась технология, законодатель пять лет думал над тем, чтобы что-то принять. Сейчас это нужно очень быстро отслеживать, работать над рекомендациями и над их реализацией. Например, компании руководствуются положениями Кодекса этики ИИ России, который был принят в прошлом году.
Технология доверия
– А в чем может проявляться неэтичность при использовании ИИ?
– Искусственный интеллект – сложная система. Разработчик может понимать ее на 100% с точки зрения безопасности, но иногда встречаются артефакты непредсказуемого поведения. Это должно быть заранее проверено и протестировано, должны быть прописаны правила разработки, чтобы избежать этих проблем.
Также должны быть прописаны правила работы с данными. Часто умная колонка – это член семьи. Она слышит все, что говорят вокруг, знает о предпочтениях владельца. Решать вопрос безопасности искусственного интеллекта нужно не на этапе готового продукта, а в процессе разработки. Сейчас нам известно большинство типичных примеров неэтичного поведения: это и генерация экстремистских высказываний, и рецепты по производству оружия, и другие противозаконные вещи. Зная о них, мы можем не наступать на те же грабли и исключить их появление в новом продукте на основе ИИ.
– Можем ли мы полностью полагаться на искусственный интеллект? Например, доверять жизнь машине, если ИИ применяется в медицине?
– Речь ведь идет не о том, что мы нашли на улице флешку, поняли, что на ней искусственный интеллект, и начали его использовать. Нужно, чтобы хотя бы первый этап проверки ИИ на безопасность был пройден. Чтобы было доказано, что ИИ, назначающий лекарства, например, давал безопасные рекомендации.
Кроме того, есть случаи, когда в мировой практике была доказана безопасность – мы можем опираться на эти исследования, не тратя время на новые. Можно также вводить пилотные зоны или применять медицинский искусственный интеллект для тех пациентов, которые находятся в терминальной стадии смертельного заболевания и сами хотят попробовать новые технологии – может, произойдет прогресс в выздоровлении?
В медицине также существует много ограничений в работе с персональными данными, которые «тормозят» развитие этой сферы. По моему частному мнению, ставить преграды специалистам, которые легально используют данные людей, не очень хорошая идея, особенно когда эти данные можно нелегально купить в Интернете, куда они попадают в результате утечек и взломов. Использовать персональные данные можно и обезличенно, сейчас многие страны применяют такой подход. Это же здоровье нации, здоровье отдельных людей, и чем дольше мы будем внедрять в медицину передовые решения, тем хуже будет и человеку, и государству.
– А что насчет внедрения в законодательство? Как этика ИИ отражена в российском правовом поле?
– ИИ упоминается в некоторых нормативных актах, но закона об искусственном интеллекте у нас нет. Никто не хочет «стрелять себе в ногу». В свое время Евросоюз принял Общий регламент по защите данных (GDPR), убив тем самым отрасль искусственного интеллекта. Они поставили такие жесткие требования к работе с данными, что компаниям стало выгодно открываться где угодно, кроме Евросоюза. Поэтому, как мне кажется, с законом нам не нужно торопиться.
Мы принимаем законы только в тех сферах, где видим явную угрозу для общества. Самый частый пример – дипфейки – использование искусственного интеллекта для замены лица, мимики, голоса. Во многих странах уже приняты законы, регулирующие такое использование ИИ: есть риск – появился законодательный акт. Если мы говорим о сфере ретейла, например, зачем нам ее настолько ограничивать? Для них и без того есть много законов.
– Если ИИ не закреплен в нашем законодательстве, то как человеку защитить себя с правовой точки зрения от нелегального использования дипфейков, например?
– Если в дипфейке есть какие-то виды запрещенной информации – порнография, призывы к свержению власти, ущемление религиозных прав и так далее, изготовление и размещение такого дипфейка само по себе будет преступлением. Пока уголовное право частично защищает людей в этом отношении, но это уже немало. Два года назад проводилось исследование, согласно которому 60% дипфейков содержат в себе порнографический контент, то есть уже 60% находятся вне закона.
Влиять на дипфейки, не содержащие уголовного правонарушения, можно только административными механизмами – например, можно написать жалобу в Роскомнадзор, обосновав ее, конечно.
Черное зеркало
– Понятен сценарий, при котором человек вредит человеку, используя ИИ. Может ли ИИ самообучиться и самостоятельно принести вред людям?
– С научной точки зрения сложно ответить на этот вопрос: сейчас у нас нет доказательств ни того, ни другого. Однако как человек, работающий в этой области, я не верю, что искусственный интеллект может настолько развиться самостоятельно. Скорее всего, он просто закрепится в нашей жизни. Мы привыкнем к нему, как привыкли когда-то к бумаге – для своего времени это тоже была прорывная технология.
В кодексах этики искусственного интеллекта, конечно, есть ограничения для самообучающихся систем – в некоторых странах они, к примеру, не должны быть подключены к Сети. Кроме того, мы можем запретить допуск таких систем к управлению особо важными вещами. Все мы знаем сценарий «Терминатора» и понимаем, что оставлять на откуп умной системе запуск ядерных баллистических ракет – плохая идея. Мы должны использовать риск-ориентированный подход, учитывать возможные последствия при разработке технологии. Прозрачность, о которой мы говорили ранее, также важна: нужно понимать, что происходит в лабораториях и центрах искусственного интеллекта.
Ученые могут предлагать вообще все, что угодно. Я читал статью, в которой предлагали иметь «красную кнопку» для отключения ИИ. Я подумал: «Так мы же не успеем ее нажать».
– Искусственный интеллект можно использовать во благо, а можно с помощью него причинять вред. Чего в итоге больше от использования ИИ: плюсов или минусов?
– Искусственный интеллект – это технология, и все зависит от того, кто и для чего ее использует. Я, например, верю, что искусственный интеллект поможет нам освоить космос, сделать то, о чем писали фантасты.
Уже сейчас я вижу, что ИИ помогает человеку во многих сферах. Качественная медицина и образование становятся доступнее, удовлетворяются естественные потребности людей. Приведу в пример такую ситуацию: родители не общаются с ребенком, нет времени на это или семья неблагополучная. Ребенок может обратиться к ИИ: заняться самообразованием или поддержать беседу с «умным» устройством, если нуждается в общении.
Вопрос заключается в том, как использовать искусственный интеллект. Этим занимается этика. Например, недавно студент российского вуза написал дипломную работу с помощью Chat GPT – встает вопрос, можно ли использовать нейросети таким образом.
– И как, по-вашему, можно?
– Можно, но взвешенно. Очевидно, что если человек перестанет сам писать и говорить, то он потеряет в эрудированности и интеллекте. И это не какая-то «страшилка», это отражено в работах русского педагога Выгодского, например. Они доказывают, что владение письменной и устной речью связано с интеллектуальным развитием, поэтому какие-то ограничения в использовании нейросетей должны быть. Нужно, чтобы студент сам сформулировал мысли. В то же время с Chat GPT ты, очевидно, можешь делать больше. У крупных компаний есть потребность в сотрудниках, которые умеют работать с этой нейросетью, и если мы не будем давать студенту эти навыки, то он потеряет свою ценность на рынке труда. Здесь нужно обязательно выдержать баланс.
Применять технологии нужно осмысленно, и этика ИИ помогает оценивать риски, понимать, что происходит внутри системы и что ты с ней делаешь.