Обеспечить безопасность, не ограничивая развитие

386
Анастасия Шварц

Искусственный интеллект может принести больше пользы, если выстроить адекватную систему управления рисками

коллаж Натальи Ляликовой

Такие выводы содержатся в Международном отчете по безопасности ИИ, который был опубликован накануне прошедшего в Париже в феврале AI Action Summit.

Подготовленный группой из 96 независимых экспертов в области искусственного интеллекта, включая международную эксперт­ную консультативную группу, представленную 30 странами, Организацией экономичес­кого сотрудничества и развития (ОЭСР), Европейским союзом (ЕС) и Организацией Объединенных Наций (ООН), отчет позицио­нируется как первый в своем роде тематический обзор, в котором проанализированы риски и безопасность ИИ.

Технологии искусственного интеллекта сегодня используются во многих сферах, но отчет сосредоточен на так называемом «универсальном ИИ» (таковым является, в частности, ChatGPT), способном выполнять широкий спектр задач. Именно он наиболее стремительно развивается и именно им люди пользуются особенно активно.

Как отмечают авторы отчета, еще несколько лет назад даже лучшие большие языковые модели (LLMs) редко могли создать связный абзац текста. Сегодня универсальный ИИ может писать компьютерные программы, генерировать фотореалистичные изображения и вести продолжительные открытые диалоги. Многие компании инвестируют в разработку универсальных
ИИ-агентов, которые могут автономно действовать, планировать и распределять задачи для достижения целей с минимальным или полным отсутствием контроля со стороны человека.

Относительно темпов дальнейшего развития технологии и, соответственно, возможностей ИИ у экспертов нет однозначного мнения: потенциально они могут как ускориться, так и замедлиться. Прогресс будет зависеть от того, смогут ли компании быстро задействовать еще больше данных и вычислительных мощностей для обучения новых моделей, а также от того, позволит ли такое масштабирование преодолеть текущие ограничения моделей.

Кроме того, могут произойти события, которые невозможно спрогнозировать, но которые придадут импульс, застопорят процесс или даже спровоцируют откат (например, прорывное научное открытие, дефицит энергетических мощностей, серьезная ЧС и тому подобное).

Вместе с тем понимание того, насколько быстро и как будут развиваться универсальные ИИ в ближайшие годы, чрезвычайно важно. Поскольку, как отмечается в отчете, уже сейчас по мере рос­та их возможностей постепенно появляются свидетельства дополнительных проблем.

В целом в отчете выделены три основные категории рисков: рис­ки злонамеренного использования (угрозы, возникающие, когда ИИ используется преступниками или злоумышленниками); риски, связанные с ошибками и сбоями (проблемы, вызванные некорректной работой ИИ), а также системные риски (угрозы, затрагивающие общество в целом).

Многие риски первой категории уже хорошо знакомы: зло­умышленники используют универсальный ИИ для создания фейкового контента (с целью мошенничества, нанесения вреда репутации людей, травли, шантажа и так далее), манипуляции общественным мнением, кибер­атак и так далее.

Даже если пользователи не собираются использовать ИИ во вредоносных целях, серьезные риски могут возникнуть из-за его сбоев и ошибок. Один из ключевых – проблема с надежностью. То есть ИИ не всегда дает точные и достоверные сведения в ответе на запрос пользователя, что может быть особенно чувствительным для людей, если они обращаются за юридической или медицинской консультацией.

«Многие пользователи не осознают ограничений ИИ. Это может быть связано с низким уровнем «ИИ-грамотности», вводящей в заблуждение рекламой или некорректными объяснениями со стороны разработчиков», – говорится в отчете.

Еще одна проблема – предвзятость и даже дискриминация. Как отмечается в отчете, универсальный ИИ часто демонстрирует предвзятость по таким парамет­рам, как раса, гендер, культура, возраст, инвалидность, политические взгляды, и другим аспектам человеческой идентичности.

Такие «искажения» в работе сис­тем искусственного интеллекта могут способствовать укреплению негативных стереотипов, усиливать дискриминацию в различных сферах и так далее. Причем по мере развития ИИ и изучения его работы эксперты обнаруживают новые формы предвзятости. Стоит добавить, что данная проблема часто связана с качеством и разнообразием
обучающих данных.

Другой аспект – потеря конт­роля. Это гипотетический сценарий, при котором универсальный ИИ выходит из-под контроля человека и нет очевидного способа его остановить. На данный момент эксперты сходятся во мнении, что текущие модели ИИ не обладают достаточными возможностями для такого сценария. Однако относительно перспектив будущего консенсуса у ученых нет.

Что касается системных рисков, то, как отмечают авторы отчета, потенциально их спектр довольно широк – от влияния на рынок труда и усугубления неравенства в развитии до угроз конфиденциальности и негативного воздействия на окружающую среду.

Про влияние универсального ИИ на рынок труда в последние годы говорится немало: эксперты считают, что если его развитие продолжится такими же быстрыми темпами, то многие люди могут потерять рабочие места в результате автоматизации многих процессов. В то же время многие экономисты считают: потенциальные потери рабочих мест могут быть компенсированы (частично или полностью) созданием новых рабочих мест и ростом спроса в секторах, не поддающихся автоматизации.

Еще один аспект: на данный момент исследования в этой сфере ведутся в основном в нескольких западных странах и Китае, а рынок универсального ИИ контролируется небольшим числом компаний. Не все государства имеют равный доступ к дорогостоящим вычислительным ресурсам, необходимым для разработки ИИ. Сложившаяся ситуация может привести к усилению зависимости одних стран от других, углублению глобального неравенства, а также стать фактором уязвимости для государств, обществ и критически важных секторов.

Отдельная тема, выделенная в отчете, – экологические рис­ки. Как отмечают эксперты, быст­ро растущее использование вычис­лительных мощностей в разработке и масштабировании универсального ИИ привело к резкому увеличению потреб­ления энергии, воды и сырья, необходимых для создания и эксплуатации соответствующей инфраструктуры.

Угрозы конфиденциальности – еще один системный риск. Универсальный ИИ может привести к нарушениям конфиденциальности пользователей. Например, если конфиденциальная информация была включена в обучающий набор данных, то ИИ может случайно раскрыть ее при взаимодействии с пользователем.

Если пользователи сами делятся конфиденциальной информацией с системой, эти данные также могут быть уязвимыми. Кроме того, возможно использование ИИ для анализа больших объемов данных, чтобы выявить чувствительную информацию о конкретных людях.

«Усовершенствование возможностей ИИ привело к его использованию в более чувствительных областях, таких как здравоохранение и контроль за рабочими местами, что увеличивает риски нарушения конфиденциальности», – отмечают авторы отчета.

Другой актуальный вопрос: универсальный ИИ как изучает, так и создает материалы (в том числе творческого характера – картины, тексты, стихотворения и так далее), что создает вызовы для традиционных систем согласия на использование данных, компенсации и контроля. Сбор данных и генерация контента затрагивают различные законы об авторских правах и правах на данные, которые различаются в разных странах.

Как отмечается в отчете, из-за юридической неопределенности вокруг практик сбора данных ИИ-компании стали публиковать меньше информации о том, какие именно данные они используют. Такая непрозрачность услож­няет независимые исследования
безопасности ИИ.

«Будущее универсального искусственного интеллекта остается неопределенным, и в ближайшее время возможны самые разные сценарии – от крайне позитивных до крайне негативных. Эта неопределенность может вызывать фатализм и создавать ощущение, что ИИ развивается сам по себе, но на самом деле именно человеческие решения – со стороны общества и правительств – определяют, каким будет путь», – подчеркивают авторы отчета.

В целом идея отчета как раз и заключалась в том, чтобы предос­тавить научную информацию, которая поможет в принятии обоснованных политических решений, улучшить коллективное понимание технологии ИИ и ее потенциальных рисков.

Авторы отчета сознательно не стали давать рекомендации и «рецепты», как сделать использование ИИ более безопасным. Отчасти это обусловлено тем, что эксперты по-разному оценивают существующие доказательства рисков: одни считают, будто некоторые угрозы появятся только через десятилетия, в то время как другие полагают, что универсальный ИИ может привести к масштабному ущербу уже в ближайшие годы.

«Темпы и непредсказуемость развития универсального ИИ соз­дают «дилемму доказательств» для политиков. Из-за порой стремительных и неожиданных дос­тижений им часто приходится взвешивать потенциальные выгоды и риски новых технологий, не имея достаточного количества научных данных. В этом заключается дилемма: с одной стороны, упреж­дающие меры по снижению рисков на основе ограниченных данных могут оказаться неэффективными или ненужными. С другой стороны, ожидание более веских доказательств надвигающейся угрозы может оставить общество без подготовки или даже сделать предотвращение риска невозможным – например, если внезапные скачки возможностей ИИ приведут к мгновенному появлению новых рисков», – обращают внимание эксперты.

Компании и правительства разрабатывают системы раннего предупреждения и механизмы управления рисками, которые могут изменить ситуацию. В целом, как отмечается в отчете, сегодня методы управления рисками находятся еще на ранней стадии, но ученые и политики все активнее работают над стандартизацией подходов к управлению ими и международной координацией в этой области.

В том числе этот вопрос занимает большое место в повестке ООН. Принятый на Саммите будущего Организации Объединенных Наций в прошлом году Глобальный цифровой договор включает в себя первое универсальное соглашение по управлению ИИ. Тогда же было принято решение о создании Независимой международной научной панели по ИИ – структуры, которая объединяет экспертов из различных стран и дисциплин для оценки рисков, возможностей и перспектив, связанных с ИИ, а также разработки рекомендаций по его регулированию и использованию.

Популярное

Все
Интернет-мошенники активизировались
Прозрачность и честность во всех сферах жизни
Нацгвардия придет на помощь
Защитить людей от паводка
Центры – под замок?
Нормы надо соблюдать!
Воспитанники детского дома № 1 продолжат жить и учиться в Алматы
Обеспечить безопасность, не ограничивая развитие
Стратегический подход Казахстана к ИИ на пути к цифровому будущему
Лишенные любви
Музыка, которая дышит вечностью
Заряжен на победу
В зоопарке Алматы – рекорд посещаемости
В Семее запущены новые аппараты лучевой терапии
Знак высокого доверия и ответственности
Весне – дорогу!
Ценность воды
Конструктивное взаимодействие
Создание Центра ООН в Алматы поддержано
Подписан меморандум о сотрудничестве ТОО «Қазақ газеттері» и НАО «Фонд Отандастар»
Актау будет расширяться вдоль побережья Каспия
Новая услуга появилась в мобильном приложении eGov Mobile
Овечкин вплотную приблизился к «вечному» рекорду Гретцки
Закон и порядок должны быть аксиомой жизни
Казахстанцы всё чаще жалуются на китайский автопром
В Астане наградили самых законопослушных водителей
Мопеды: теперь только по правилам
Трамп анонсировал введение пошлин на автомобили и товары из ЕС
Молодые ученые на особом счету
Цех с суррогатным алкоголем выявили в Костанайской области
«Не сделал должных выводов»: шесть лет тюрьмы получил житель Акмолинской области
В Уральске прошел обучающий семинар для комплаенс-офицеров
Канат Шарлапаев освобожден от занимаемой должности
Переговоры США и Украины провалились
Развитие ключевых направлений ведомства
Европротокол в законе
Американский банк по ошибке перевел клиенту 81 трлн долларов
Быстрого решения для «черного неба» нет
Госсекретарь США потребовал извинений от Зеленского
Не только учить, но и учиться
Возврат к историческому времени
Астана переходит в «умный» режим
Печальное событие произошло в семье Баян Алагузовой
Сколько пенсионеров в Казахстане и какую пенсию они получают
Сбежавшего от полиции водителя привлекли к ответственности по 8 статьям в Таразе
Бизнес в Семее сетует на бесконтрольное повышение тарифов
История Каргалинского клада: в 1939 году республику взбудоражила весть о находке клада с золотом
Северный Казахстан демонстрирует успехи в АПК
Уникальный ясли-сад с соляной шахтой открылся в городе Сатпаеве
В Атырау запланирована реконструкция центрального моста
Правила организации и проведения техосмотра изменили в Казахстане
Сносить нельзя оставить
Кызылординский «Кайсар» будет играть без легионеров
Пешком и без денег путешествует Аскар Серикпаев
На грани закрытия оказались частные детсады Петропавловска
Аким области Абай призвал бизнесменов вкладывать инвестиции в Семей
Мария Мудряк выступит с концертом в Павлодаре
Какие лекарства станут выдавать бесплатно в Казахстане
Косшы станет городом школ, садов и дворцов
«The UAE SWAT Challenge 2025»: команда «Сұңқар» завоевала первое место

Читайте также

ИИ будет создавать фильмы «почти студийного качества»
Опрос об использовании ИИ запустили в eGov mobile
В Казахстане начнут регулировать сферу ИИ
ИИ научился распознавать эмоции животных

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]