Обеспечить безопасность, не ограничивая развитие

3959
Анастасия Шварц

Искусственный интеллект может принести больше пользы, если выстроить адекватную систему управления рисками

коллаж Натальи Ляликовой

Такие выводы содержатся в Международном отчете по безопасности ИИ, который был опубликован накануне прошедшего в Париже в феврале AI Action Summit.

Подготовленный группой из 96 независимых экспертов в области искусственного интеллекта, включая международную эксперт­ную консультативную группу, представленную 30 странами, Организацией экономичес­кого сотрудничества и развития (ОЭСР), Европейским союзом (ЕС) и Организацией Объединенных Наций (ООН), отчет позицио­нируется как первый в своем роде тематический обзор, в котором проанализированы риски и безопасность ИИ.

Технологии искусственного интеллекта сегодня используются во многих сферах, но отчет сосредоточен на так называемом «универсальном ИИ» (таковым является, в частности, ChatGPT), способном выполнять широкий спектр задач. Именно он наиболее стремительно развивается и именно им люди пользуются особенно активно.

Как отмечают авторы отчета, еще несколько лет назад даже лучшие большие языковые модели (LLMs) редко могли создать связный абзац текста. Сегодня универсальный ИИ может писать компьютерные программы, генерировать фотореалистичные изображения и вести продолжительные открытые диалоги. Многие компании инвестируют в разработку универсальных
ИИ-агентов, которые могут автономно действовать, планировать и распределять задачи для достижения целей с минимальным или полным отсутствием контроля со стороны человека.

Относительно темпов дальнейшего развития технологии и, соответственно, возможностей ИИ у экспертов нет однозначного мнения: потенциально они могут как ускориться, так и замедлиться. Прогресс будет зависеть от того, смогут ли компании быстро задействовать еще больше данных и вычислительных мощностей для обучения новых моделей, а также от того, позволит ли такое масштабирование преодолеть текущие ограничения моделей.

Кроме того, могут произойти события, которые невозможно спрогнозировать, но которые придадут импульс, застопорят процесс или даже спровоцируют откат (например, прорывное научное открытие, дефицит энергетических мощностей, серьезная ЧС и тому подобное).

Вместе с тем понимание того, насколько быстро и как будут развиваться универсальные ИИ в ближайшие годы, чрезвычайно важно. Поскольку, как отмечается в отчете, уже сейчас по мере рос­та их возможностей постепенно появляются свидетельства дополнительных проблем.

В целом в отчете выделены три основные категории рисков: рис­ки злонамеренного использования (угрозы, возникающие, когда ИИ используется преступниками или злоумышленниками); риски, связанные с ошибками и сбоями (проблемы, вызванные некорректной работой ИИ), а также системные риски (угрозы, затрагивающие общество в целом).

Многие риски первой категории уже хорошо знакомы: зло­умышленники используют универсальный ИИ для создания фейкового контента (с целью мошенничества, нанесения вреда репутации людей, травли, шантажа и так далее), манипуляции общественным мнением, кибер­атак и так далее.

Даже если пользователи не собираются использовать ИИ во вредоносных целях, серьезные риски могут возникнуть из-за его сбоев и ошибок. Один из ключевых – проблема с надежностью. То есть ИИ не всегда дает точные и достоверные сведения в ответе на запрос пользователя, что может быть особенно чувствительным для людей, если они обращаются за юридической или медицинской консультацией.

«Многие пользователи не осознают ограничений ИИ. Это может быть связано с низким уровнем «ИИ-грамотности», вводящей в заблуждение рекламой или некорректными объяснениями со стороны разработчиков», – говорится в отчете.

Еще одна проблема – предвзятость и даже дискриминация. Как отмечается в отчете, универсальный ИИ часто демонстрирует предвзятость по таким парамет­рам, как раса, гендер, культура, возраст, инвалидность, политические взгляды, и другим аспектам человеческой идентичности.

Такие «искажения» в работе сис­тем искусственного интеллекта могут способствовать укреплению негативных стереотипов, усиливать дискриминацию в различных сферах и так далее. Причем по мере развития ИИ и изучения его работы эксперты обнаруживают новые формы предвзятости. Стоит добавить, что данная проблема часто связана с качеством и разнообразием
обучающих данных.

Другой аспект – потеря конт­роля. Это гипотетический сценарий, при котором универсальный ИИ выходит из-под контроля человека и нет очевидного способа его остановить. На данный момент эксперты сходятся во мнении, что текущие модели ИИ не обладают достаточными возможностями для такого сценария. Однако относительно перспектив будущего консенсуса у ученых нет.

Что касается системных рисков, то, как отмечают авторы отчета, потенциально их спектр довольно широк – от влияния на рынок труда и усугубления неравенства в развитии до угроз конфиденциальности и негативного воздействия на окружающую среду.

Про влияние универсального ИИ на рынок труда в последние годы говорится немало: эксперты считают, что если его развитие продолжится такими же быстрыми темпами, то многие люди могут потерять рабочие места в результате автоматизации многих процессов. В то же время многие экономисты считают: потенциальные потери рабочих мест могут быть компенсированы (частично или полностью) созданием новых рабочих мест и ростом спроса в секторах, не поддающихся автоматизации.

Еще один аспект: на данный момент исследования в этой сфере ведутся в основном в нескольких западных странах и Китае, а рынок универсального ИИ контролируется небольшим числом компаний. Не все государства имеют равный доступ к дорогостоящим вычислительным ресурсам, необходимым для разработки ИИ. Сложившаяся ситуация может привести к усилению зависимости одних стран от других, углублению глобального неравенства, а также стать фактором уязвимости для государств, обществ и критически важных секторов.

Отдельная тема, выделенная в отчете, – экологические рис­ки. Как отмечают эксперты, быст­ро растущее использование вычис­лительных мощностей в разработке и масштабировании универсального ИИ привело к резкому увеличению потреб­ления энергии, воды и сырья, необходимых для создания и эксплуатации соответствующей инфраструктуры.

Угрозы конфиденциальности – еще один системный риск. Универсальный ИИ может привести к нарушениям конфиденциальности пользователей. Например, если конфиденциальная информация была включена в обучающий набор данных, то ИИ может случайно раскрыть ее при взаимодействии с пользователем.

Если пользователи сами делятся конфиденциальной информацией с системой, эти данные также могут быть уязвимыми. Кроме того, возможно использование ИИ для анализа больших объемов данных, чтобы выявить чувствительную информацию о конкретных людях.

«Усовершенствование возможностей ИИ привело к его использованию в более чувствительных областях, таких как здравоохранение и контроль за рабочими местами, что увеличивает риски нарушения конфиденциальности», – отмечают авторы отчета.

Другой актуальный вопрос: универсальный ИИ как изучает, так и создает материалы (в том числе творческого характера – картины, тексты, стихотворения и так далее), что создает вызовы для традиционных систем согласия на использование данных, компенсации и контроля. Сбор данных и генерация контента затрагивают различные законы об авторских правах и правах на данные, которые различаются в разных странах.

Как отмечается в отчете, из-за юридической неопределенности вокруг практик сбора данных ИИ-компании стали публиковать меньше информации о том, какие именно данные они используют. Такая непрозрачность услож­няет независимые исследования
безопасности ИИ.

«Будущее универсального искусственного интеллекта остается неопределенным, и в ближайшее время возможны самые разные сценарии – от крайне позитивных до крайне негативных. Эта неопределенность может вызывать фатализм и создавать ощущение, что ИИ развивается сам по себе, но на самом деле именно человеческие решения – со стороны общества и правительств – определяют, каким будет путь», – подчеркивают авторы отчета.

В целом идея отчета как раз и заключалась в том, чтобы предос­тавить научную информацию, которая поможет в принятии обоснованных политических решений, улучшить коллективное понимание технологии ИИ и ее потенциальных рисков.

Авторы отчета сознательно не стали давать рекомендации и «рецепты», как сделать использование ИИ более безопасным. Отчасти это обусловлено тем, что эксперты по-разному оценивают существующие доказательства рисков: одни считают, будто некоторые угрозы появятся только через десятилетия, в то время как другие полагают, что универсальный ИИ может привести к масштабному ущербу уже в ближайшие годы.

«Темпы и непредсказуемость развития универсального ИИ соз­дают «дилемму доказательств» для политиков. Из-за порой стремительных и неожиданных дос­тижений им часто приходится взвешивать потенциальные выгоды и риски новых технологий, не имея достаточного количества научных данных. В этом заключается дилемма: с одной стороны, упреж­дающие меры по снижению рисков на основе ограниченных данных могут оказаться неэффективными или ненужными. С другой стороны, ожидание более веских доказательств надвигающейся угрозы может оставить общество без подготовки или даже сделать предотвращение риска невозможным – например, если внезапные скачки возможностей ИИ приведут к мгновенному появлению новых рисков», – обращают внимание эксперты.

Компании и правительства разрабатывают системы раннего предупреждения и механизмы управления рисками, которые могут изменить ситуацию. В целом, как отмечается в отчете, сегодня методы управления рисками находятся еще на ранней стадии, но ученые и политики все активнее работают над стандартизацией подходов к управлению ими и международной координацией в этой области.

В том числе этот вопрос занимает большое место в повестке ООН. Принятый на Саммите будущего Организации Объединенных Наций в прошлом году Глобальный цифровой договор включает в себя первое универсальное соглашение по управлению ИИ. Тогда же было принято решение о создании Независимой международной научной панели по ИИ – структуры, которая объединяет экспертов из различных стран и дисциплин для оценки рисков, возможностей и перспектив, связанных с ИИ, а также разработки рекомендаций по его регулированию и использованию.

Популярное

Все
Видеокамеры помогают следить за экологической ситуацией
На возвращенные активы построят новые медицинские объекты в Акмолинской области
Природный пожар ликвидирован в Павлодарской области
Токаев поздравил президента Греции с днем независимости
Экспертную встречу по развитию образования в сфере культуры и искусства проведет МКИ
Точкой роста должен стать туризм
В Казахстане отмечают День национальной одежды
Новые виды производств появятся в Костанае
Искусственный интеллект и сохранение казахской идентичности
В Атырау растет интерес к национальным видам спорта
Более 16 млн тонн продукции АПК экспортировал Казахстан в 2024 году
Декада Наурызнама: День национального спорта отмечает Казахстан
К другим прицениться, свое показать
Ключевая цель – обеспечение равных возможностей
От идей – к практическим шагам
Ставка на «зеленые» энергетические технологии
В Казахстане создается крупнейший в регионе гипермасштабируемый центр обработки данных
Корпус идей, инициатив и приоритетов
Вопрос сохранения генофонда нации
Что делает женщину красивой?..
Современные технологии в лингвистике
Усиливая контроль и правоприменительную практику
Что предстоит сделать, чтобы Казахстан стал сильнее?
Токаев приветствует итоги телефонных переговоров Путина и Трампа по Украине
Алмасадам Саткалиев назначен главой агентства РК по атомной энергии
Актау будет расширяться вдоль побережья Каспия
Овечкин вплотную приблизился к «вечному» рекорду Гретцки
Мария Мудряк выступит с концертом в Павлодаре
В МСХ – новое назначение
Новая услуга появилась в мобильном приложении eGov Mobile
Какие лекарства станут выдавать бесплатно в Казахстане
Закон и порядок должны быть аксиомой жизни
Цех с суррогатным алкоголем выявили в Костанайской области
Көрісу – день радости, встреч и прощения
Казахстанцы всё чаще жалуются на китайский автопром
Премьер: Необходимо сократить расходы, лишние структуры через цифровизацию
Көрісу: Праздник весны, прощения и уважения в Казахстане
На участке «Болашак» в Мангистауской области будут добывать нефть
Принять, адаптироваться и научиться правильно реагировать
Новый аким области Абай проверил строительство моста в Семее
На ремонт Дворца культуры в Атырау потратят почти миллиард тенге
Молодые ученые на особом счету
В столице прошел ежегодный зимний фестиваль «Бұрқасын-2025»
Падёж скота произошёл в Актюбинской области
Путь творчества – путь новаторства

Читайте также

Как «разговаривать» с ИИ?
ИИ за 2 дня решил проблему, над которой ученые думали 10 лет
Искусственный интеллект и сохранение казахской идентичности
ИИ: вызов или благо?

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]