Обеспечить безопасность, не ограничивая развитие

5243
Анастасия Шварц

Искусственный интеллект может принести больше пользы, если выстроить адекватную систему управления рисками

коллаж Натальи Ляликовой

Такие выводы содержатся в Международном отчете по безопасности ИИ, который был опубликован накануне прошедшего в Париже в феврале AI Action Summit.

Подготовленный группой из 96 независимых экспертов в области искусственного интеллекта, включая международную эксперт­ную консультативную группу, представленную 30 странами, Организацией экономичес­кого сотрудничества и развития (ОЭСР), Европейским союзом (ЕС) и Организацией Объединенных Наций (ООН), отчет позицио­нируется как первый в своем роде тематический обзор, в котором проанализированы риски и безопасность ИИ.

Технологии искусственного интеллекта сегодня используются во многих сферах, но отчет сосредоточен на так называемом «универсальном ИИ» (таковым является, в частности, ChatGPT), способном выполнять широкий спектр задач. Именно он наиболее стремительно развивается и именно им люди пользуются особенно активно.

Как отмечают авторы отчета, еще несколько лет назад даже лучшие большие языковые модели (LLMs) редко могли создать связный абзац текста. Сегодня универсальный ИИ может писать компьютерные программы, генерировать фотореалистичные изображения и вести продолжительные открытые диалоги. Многие компании инвестируют в разработку универсальных
ИИ-агентов, которые могут автономно действовать, планировать и распределять задачи для достижения целей с минимальным или полным отсутствием контроля со стороны человека.

Относительно темпов дальнейшего развития технологии и, соответственно, возможностей ИИ у экспертов нет однозначного мнения: потенциально они могут как ускориться, так и замедлиться. Прогресс будет зависеть от того, смогут ли компании быстро задействовать еще больше данных и вычислительных мощностей для обучения новых моделей, а также от того, позволит ли такое масштабирование преодолеть текущие ограничения моделей.

Кроме того, могут произойти события, которые невозможно спрогнозировать, но которые придадут импульс, застопорят процесс или даже спровоцируют откат (например, прорывное научное открытие, дефицит энергетических мощностей, серьезная ЧС и тому подобное).

Вместе с тем понимание того, насколько быстро и как будут развиваться универсальные ИИ в ближайшие годы, чрезвычайно важно. Поскольку, как отмечается в отчете, уже сейчас по мере рос­та их возможностей постепенно появляются свидетельства дополнительных проблем.

В целом в отчете выделены три основные категории рисков: рис­ки злонамеренного использования (угрозы, возникающие, когда ИИ используется преступниками или злоумышленниками); риски, связанные с ошибками и сбоями (проблемы, вызванные некорректной работой ИИ), а также системные риски (угрозы, затрагивающие общество в целом).

Многие риски первой категории уже хорошо знакомы: зло­умышленники используют универсальный ИИ для создания фейкового контента (с целью мошенничества, нанесения вреда репутации людей, травли, шантажа и так далее), манипуляции общественным мнением, кибер­атак и так далее.

Даже если пользователи не собираются использовать ИИ во вредоносных целях, серьезные риски могут возникнуть из-за его сбоев и ошибок. Один из ключевых – проблема с надежностью. То есть ИИ не всегда дает точные и достоверные сведения в ответе на запрос пользователя, что может быть особенно чувствительным для людей, если они обращаются за юридической или медицинской консультацией.

«Многие пользователи не осознают ограничений ИИ. Это может быть связано с низким уровнем «ИИ-грамотности», вводящей в заблуждение рекламой или некорректными объяснениями со стороны разработчиков», – говорится в отчете.

Еще одна проблема – предвзятость и даже дискриминация. Как отмечается в отчете, универсальный ИИ часто демонстрирует предвзятость по таким парамет­рам, как раса, гендер, культура, возраст, инвалидность, политические взгляды, и другим аспектам человеческой идентичности.

Такие «искажения» в работе сис­тем искусственного интеллекта могут способствовать укреплению негативных стереотипов, усиливать дискриминацию в различных сферах и так далее. Причем по мере развития ИИ и изучения его работы эксперты обнаруживают новые формы предвзятости. Стоит добавить, что данная проблема часто связана с качеством и разнообразием
обучающих данных.

Другой аспект – потеря конт­роля. Это гипотетический сценарий, при котором универсальный ИИ выходит из-под контроля человека и нет очевидного способа его остановить. На данный момент эксперты сходятся во мнении, что текущие модели ИИ не обладают достаточными возможностями для такого сценария. Однако относительно перспектив будущего консенсуса у ученых нет.

Что касается системных рисков, то, как отмечают авторы отчета, потенциально их спектр довольно широк – от влияния на рынок труда и усугубления неравенства в развитии до угроз конфиденциальности и негативного воздействия на окружающую среду.

Про влияние универсального ИИ на рынок труда в последние годы говорится немало: эксперты считают, что если его развитие продолжится такими же быстрыми темпами, то многие люди могут потерять рабочие места в результате автоматизации многих процессов. В то же время многие экономисты считают: потенциальные потери рабочих мест могут быть компенсированы (частично или полностью) созданием новых рабочих мест и ростом спроса в секторах, не поддающихся автоматизации.

Еще один аспект: на данный момент исследования в этой сфере ведутся в основном в нескольких западных странах и Китае, а рынок универсального ИИ контролируется небольшим числом компаний. Не все государства имеют равный доступ к дорогостоящим вычислительным ресурсам, необходимым для разработки ИИ. Сложившаяся ситуация может привести к усилению зависимости одних стран от других, углублению глобального неравенства, а также стать фактором уязвимости для государств, обществ и критически важных секторов.

Отдельная тема, выделенная в отчете, – экологические рис­ки. Как отмечают эксперты, быст­ро растущее использование вычис­лительных мощностей в разработке и масштабировании универсального ИИ привело к резкому увеличению потреб­ления энергии, воды и сырья, необходимых для создания и эксплуатации соответствующей инфраструктуры.

Угрозы конфиденциальности – еще один системный риск. Универсальный ИИ может привести к нарушениям конфиденциальности пользователей. Например, если конфиденциальная информация была включена в обучающий набор данных, то ИИ может случайно раскрыть ее при взаимодействии с пользователем.

Если пользователи сами делятся конфиденциальной информацией с системой, эти данные также могут быть уязвимыми. Кроме того, возможно использование ИИ для анализа больших объемов данных, чтобы выявить чувствительную информацию о конкретных людях.

«Усовершенствование возможностей ИИ привело к его использованию в более чувствительных областях, таких как здравоохранение и контроль за рабочими местами, что увеличивает риски нарушения конфиденциальности», – отмечают авторы отчета.

Другой актуальный вопрос: универсальный ИИ как изучает, так и создает материалы (в том числе творческого характера – картины, тексты, стихотворения и так далее), что создает вызовы для традиционных систем согласия на использование данных, компенсации и контроля. Сбор данных и генерация контента затрагивают различные законы об авторских правах и правах на данные, которые различаются в разных странах.

Как отмечается в отчете, из-за юридической неопределенности вокруг практик сбора данных ИИ-компании стали публиковать меньше информации о том, какие именно данные они используют. Такая непрозрачность услож­няет независимые исследования
безопасности ИИ.

«Будущее универсального искусственного интеллекта остается неопределенным, и в ближайшее время возможны самые разные сценарии – от крайне позитивных до крайне негативных. Эта неопределенность может вызывать фатализм и создавать ощущение, что ИИ развивается сам по себе, но на самом деле именно человеческие решения – со стороны общества и правительств – определяют, каким будет путь», – подчеркивают авторы отчета.

В целом идея отчета как раз и заключалась в том, чтобы предос­тавить научную информацию, которая поможет в принятии обоснованных политических решений, улучшить коллективное понимание технологии ИИ и ее потенциальных рисков.

Авторы отчета сознательно не стали давать рекомендации и «рецепты», как сделать использование ИИ более безопасным. Отчасти это обусловлено тем, что эксперты по-разному оценивают существующие доказательства рисков: одни считают, будто некоторые угрозы появятся только через десятилетия, в то время как другие полагают, что универсальный ИИ может привести к масштабному ущербу уже в ближайшие годы.

«Темпы и непредсказуемость развития универсального ИИ соз­дают «дилемму доказательств» для политиков. Из-за порой стремительных и неожиданных дос­тижений им часто приходится взвешивать потенциальные выгоды и риски новых технологий, не имея достаточного количества научных данных. В этом заключается дилемма: с одной стороны, упреж­дающие меры по снижению рисков на основе ограниченных данных могут оказаться неэффективными или ненужными. С другой стороны, ожидание более веских доказательств надвигающейся угрозы может оставить общество без подготовки или даже сделать предотвращение риска невозможным – например, если внезапные скачки возможностей ИИ приведут к мгновенному появлению новых рисков», – обращают внимание эксперты.

Компании и правительства разрабатывают системы раннего предупреждения и механизмы управления рисками, которые могут изменить ситуацию. В целом, как отмечается в отчете, сегодня методы управления рисками находятся еще на ранней стадии, но ученые и политики все активнее работают над стандартизацией подходов к управлению ими и международной координацией в этой области.

В том числе этот вопрос занимает большое место в повестке ООН. Принятый на Саммите будущего Организации Объединенных Наций в прошлом году Глобальный цифровой договор включает в себя первое универсальное соглашение по управлению ИИ. Тогда же было принято решение о создании Независимой международной научной панели по ИИ – структуры, которая объединяет экспертов из различных стран и дисциплин для оценки рисков, возможностей и перспектив, связанных с ИИ, а также разработки рекомендаций по его регулированию и использованию.

Популярное

Все
Сегодня - День пограничника
Бронзовый призер ОИ-2012 возглавил управление в Алматинской области
Обрабатывающая промышленность в 2025 году выросла на 6,1%
Новый профессиональный праздник для предпринимателей учрежден в Казахстане
Дожди с грозами и ветром ожидаются в Казахстане
Уборку зерновых завершили аграрии Шымкента
Карагандинский академический театр музкомедии приедет на гастроли в Астану
Определены 100 популярных казахстанских книг
Среднемесячная зарплата выросла в Казахстане
Как будет расти Караганда
МИД ЕС созывает экстренный саммит по Украине
Фигуристка Софья Самоделкина стала серебряным призером турнира в США
Казахстанские школьники получили 7 наград на чемпионате по робототехнике в Китае
Глава государства о суперкомпьютере и об ИИ: «Расслабляться нельзя»
Производство китайских грузовиков локализуют в Сарани
Четыре человека погибли в жуткой аварии в Актюбинской области
День спорта отметят в Казахстане
Тренера топ-клуба КПЛ отправили в отставку после поражения в Семее
Мертвые души и трудоустройство
Шапан Танеке Досетулы передан Национальному музею
Полицейские поймали «рыночных охотниц» в Алматы
В Турции землетрясение разрушило дома
Подозреваемого в терроризме экстрадировали в Астану
Майнерам незаконно продавали электроэнергию в ВКО
До конца 2025 года в Казахстане введут обязательную маркировку моторных масел
Десять человек погибли за два дня на трассах Казахстана
На Зеленом базаре арендаторы в очередной раз устроили демарш
Жезказган – Кызылорда: уложены первые километры асфальта
Сильные дожди накроют Казахстан
Сильные дожди сменят жару в Казахстане
Более полумиллиарда тенге выделили на ремонт столетней дороги в ВКО
В Павлодарской области масштабно отметили 125-летие Исы Байзакова
Родители потратили благотворительную помощь на лечение сына: возбуждено дело
В Кызылординской области все больше сёл отказываются от продажи алкоголя
Гвардеец завоевал бронзу на ЧМ по пляжному самбо в Сингапуре
О погоде в Казахстане на первые дни августа рассказали синоптики
Нацбанк начал валютные интервенции
Где и когда посмотреть результаты конкурса грантов?
Гвардеец стал призёром конкурса по популяризации наследия Абая
В Туркестане построят восточную объездную дорогу
В Астане 125 новобранцев дали клятву Родине
Незаконные постройки снесут в Уральске
Налоговый Кодекс Республики Казахстан
Найдены личные вещи членов экипажа пропавшего на Сорбулаке вертолета

Читайте также

Внедрение ИИ в работу крупных промышленных предприятий обсу…
Как чат-боты манипулируют людьми
Ученые Китая впервые внедрили биоробота в стадо тибетских а…
Президент обеспокоен медленными темпами внедрения ИИ - Русл…

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]