Обеспечить безопасность, не ограничивая развитие

4942
Анастасия Шварц

Искусственный интеллект может принести больше пользы, если выстроить адекватную систему управления рисками

коллаж Натальи Ляликовой

Такие выводы содержатся в Международном отчете по безопасности ИИ, который был опубликован накануне прошедшего в Париже в феврале AI Action Summit.

Подготовленный группой из 96 независимых экспертов в области искусственного интеллекта, включая международную эксперт­ную консультативную группу, представленную 30 странами, Организацией экономичес­кого сотрудничества и развития (ОЭСР), Европейским союзом (ЕС) и Организацией Объединенных Наций (ООН), отчет позицио­нируется как первый в своем роде тематический обзор, в котором проанализированы риски и безопасность ИИ.

Технологии искусственного интеллекта сегодня используются во многих сферах, но отчет сосредоточен на так называемом «универсальном ИИ» (таковым является, в частности, ChatGPT), способном выполнять широкий спектр задач. Именно он наиболее стремительно развивается и именно им люди пользуются особенно активно.

Как отмечают авторы отчета, еще несколько лет назад даже лучшие большие языковые модели (LLMs) редко могли создать связный абзац текста. Сегодня универсальный ИИ может писать компьютерные программы, генерировать фотореалистичные изображения и вести продолжительные открытые диалоги. Многие компании инвестируют в разработку универсальных
ИИ-агентов, которые могут автономно действовать, планировать и распределять задачи для достижения целей с минимальным или полным отсутствием контроля со стороны человека.

Относительно темпов дальнейшего развития технологии и, соответственно, возможностей ИИ у экспертов нет однозначного мнения: потенциально они могут как ускориться, так и замедлиться. Прогресс будет зависеть от того, смогут ли компании быстро задействовать еще больше данных и вычислительных мощностей для обучения новых моделей, а также от того, позволит ли такое масштабирование преодолеть текущие ограничения моделей.

Кроме того, могут произойти события, которые невозможно спрогнозировать, но которые придадут импульс, застопорят процесс или даже спровоцируют откат (например, прорывное научное открытие, дефицит энергетических мощностей, серьезная ЧС и тому подобное).

Вместе с тем понимание того, насколько быстро и как будут развиваться универсальные ИИ в ближайшие годы, чрезвычайно важно. Поскольку, как отмечается в отчете, уже сейчас по мере рос­та их возможностей постепенно появляются свидетельства дополнительных проблем.

В целом в отчете выделены три основные категории рисков: рис­ки злонамеренного использования (угрозы, возникающие, когда ИИ используется преступниками или злоумышленниками); риски, связанные с ошибками и сбоями (проблемы, вызванные некорректной работой ИИ), а также системные риски (угрозы, затрагивающие общество в целом).

Многие риски первой категории уже хорошо знакомы: зло­умышленники используют универсальный ИИ для создания фейкового контента (с целью мошенничества, нанесения вреда репутации людей, травли, шантажа и так далее), манипуляции общественным мнением, кибер­атак и так далее.

Даже если пользователи не собираются использовать ИИ во вредоносных целях, серьезные риски могут возникнуть из-за его сбоев и ошибок. Один из ключевых – проблема с надежностью. То есть ИИ не всегда дает точные и достоверные сведения в ответе на запрос пользователя, что может быть особенно чувствительным для людей, если они обращаются за юридической или медицинской консультацией.

«Многие пользователи не осознают ограничений ИИ. Это может быть связано с низким уровнем «ИИ-грамотности», вводящей в заблуждение рекламой или некорректными объяснениями со стороны разработчиков», – говорится в отчете.

Еще одна проблема – предвзятость и даже дискриминация. Как отмечается в отчете, универсальный ИИ часто демонстрирует предвзятость по таким парамет­рам, как раса, гендер, культура, возраст, инвалидность, политические взгляды, и другим аспектам человеческой идентичности.

Такие «искажения» в работе сис­тем искусственного интеллекта могут способствовать укреплению негативных стереотипов, усиливать дискриминацию в различных сферах и так далее. Причем по мере развития ИИ и изучения его работы эксперты обнаруживают новые формы предвзятости. Стоит добавить, что данная проблема часто связана с качеством и разнообразием
обучающих данных.

Другой аспект – потеря конт­роля. Это гипотетический сценарий, при котором универсальный ИИ выходит из-под контроля человека и нет очевидного способа его остановить. На данный момент эксперты сходятся во мнении, что текущие модели ИИ не обладают достаточными возможностями для такого сценария. Однако относительно перспектив будущего консенсуса у ученых нет.

Что касается системных рисков, то, как отмечают авторы отчета, потенциально их спектр довольно широк – от влияния на рынок труда и усугубления неравенства в развитии до угроз конфиденциальности и негативного воздействия на окружающую среду.

Про влияние универсального ИИ на рынок труда в последние годы говорится немало: эксперты считают, что если его развитие продолжится такими же быстрыми темпами, то многие люди могут потерять рабочие места в результате автоматизации многих процессов. В то же время многие экономисты считают: потенциальные потери рабочих мест могут быть компенсированы (частично или полностью) созданием новых рабочих мест и ростом спроса в секторах, не поддающихся автоматизации.

Еще один аспект: на данный момент исследования в этой сфере ведутся в основном в нескольких западных странах и Китае, а рынок универсального ИИ контролируется небольшим числом компаний. Не все государства имеют равный доступ к дорогостоящим вычислительным ресурсам, необходимым для разработки ИИ. Сложившаяся ситуация может привести к усилению зависимости одних стран от других, углублению глобального неравенства, а также стать фактором уязвимости для государств, обществ и критически важных секторов.

Отдельная тема, выделенная в отчете, – экологические рис­ки. Как отмечают эксперты, быст­ро растущее использование вычис­лительных мощностей в разработке и масштабировании универсального ИИ привело к резкому увеличению потреб­ления энергии, воды и сырья, необходимых для создания и эксплуатации соответствующей инфраструктуры.

Угрозы конфиденциальности – еще один системный риск. Универсальный ИИ может привести к нарушениям конфиденциальности пользователей. Например, если конфиденциальная информация была включена в обучающий набор данных, то ИИ может случайно раскрыть ее при взаимодействии с пользователем.

Если пользователи сами делятся конфиденциальной информацией с системой, эти данные также могут быть уязвимыми. Кроме того, возможно использование ИИ для анализа больших объемов данных, чтобы выявить чувствительную информацию о конкретных людях.

«Усовершенствование возможностей ИИ привело к его использованию в более чувствительных областях, таких как здравоохранение и контроль за рабочими местами, что увеличивает риски нарушения конфиденциальности», – отмечают авторы отчета.

Другой актуальный вопрос: универсальный ИИ как изучает, так и создает материалы (в том числе творческого характера – картины, тексты, стихотворения и так далее), что создает вызовы для традиционных систем согласия на использование данных, компенсации и контроля. Сбор данных и генерация контента затрагивают различные законы об авторских правах и правах на данные, которые различаются в разных странах.

Как отмечается в отчете, из-за юридической неопределенности вокруг практик сбора данных ИИ-компании стали публиковать меньше информации о том, какие именно данные они используют. Такая непрозрачность услож­няет независимые исследования
безопасности ИИ.

«Будущее универсального искусственного интеллекта остается неопределенным, и в ближайшее время возможны самые разные сценарии – от крайне позитивных до крайне негативных. Эта неопределенность может вызывать фатализм и создавать ощущение, что ИИ развивается сам по себе, но на самом деле именно человеческие решения – со стороны общества и правительств – определяют, каким будет путь», – подчеркивают авторы отчета.

В целом идея отчета как раз и заключалась в том, чтобы предос­тавить научную информацию, которая поможет в принятии обоснованных политических решений, улучшить коллективное понимание технологии ИИ и ее потенциальных рисков.

Авторы отчета сознательно не стали давать рекомендации и «рецепты», как сделать использование ИИ более безопасным. Отчасти это обусловлено тем, что эксперты по-разному оценивают существующие доказательства рисков: одни считают, будто некоторые угрозы появятся только через десятилетия, в то время как другие полагают, что универсальный ИИ может привести к масштабному ущербу уже в ближайшие годы.

«Темпы и непредсказуемость развития универсального ИИ соз­дают «дилемму доказательств» для политиков. Из-за порой стремительных и неожиданных дос­тижений им часто приходится взвешивать потенциальные выгоды и риски новых технологий, не имея достаточного количества научных данных. В этом заключается дилемма: с одной стороны, упреж­дающие меры по снижению рисков на основе ограниченных данных могут оказаться неэффективными или ненужными. С другой стороны, ожидание более веских доказательств надвигающейся угрозы может оставить общество без подготовки или даже сделать предотвращение риска невозможным – например, если внезапные скачки возможностей ИИ приведут к мгновенному появлению новых рисков», – обращают внимание эксперты.

Компании и правительства разрабатывают системы раннего предупреждения и механизмы управления рисками, которые могут изменить ситуацию. В целом, как отмечается в отчете, сегодня методы управления рисками находятся еще на ранней стадии, но ученые и политики все активнее работают над стандартизацией подходов к управлению ими и международной координацией в этой области.

В том числе этот вопрос занимает большое место в повестке ООН. Принятый на Саммите будущего Организации Объединенных Наций в прошлом году Глобальный цифровой договор включает в себя первое универсальное соглашение по управлению ИИ. Тогда же было принято решение о создании Независимой международной научной панели по ИИ – структуры, которая объединяет экспертов из различных стран и дисциплин для оценки рисков, возможностей и перспектив, связанных с ИИ, а также разработки рекомендаций по его регулированию и использованию.

Популярное

Все
Вручены награды лучшим шахматистам
В Москве состоялся творческий вечер памяти казахской поэтессы Марфуги Бектемировой
Музыка нового поколения
Единовременную соцвыплату получат пенсионеры
Трагедия «Малого Октября в Казахстане»
Дети Карлага
Магди Макулов: богослов и кази
Не спонсор, а друг
У аграриев горячая пора
Чтобы детство было счастливым
Особенности финансовой стабильности
Взял кредит и бизнес запустил
Фестиваль российского кино прошел в Астане в пятый раз
Участники международного фестиваля вели речь об искусстве строительства
Плей-офф начинается с сенсации
А у нас в Шубаре газ!
Трагедии научили ценить единство
Не забудем!
C опорой на цифровизацию и доверие граждан
Векторы глобальной экономики и логистики
Начались масштабные работы по благоустройству Талдыкоргана
Определены 100 лучших школ Казахстана по итогам года
Кызылординским студентам вручили направления на учебу в зарубежные заведения
Объявлен обладатель «Золотой бутсы» сезона 2024-2025
Потепление до 35 градусов ожидается в Казахстане
В Жастаре построили ферму XXI века
Тайна массового захоронения динозавров у «Реки Смерти»: учёные ближе к разгадке
В Павлодаре из-за пожара в такси пострадали четыре человека
Филиал Челябинского государственного университета откроют в Костанае
Досаев покинул должность акима Алматы
Новая услуга стала доступной казахстанцам в eGov Mobile
Астана примет высоких гостей – анонс мероприятий с Токаевым на этой неделе
Казахстан – Саудовская Аравия: новые вехи сотрудничества
22 золотые медали завоевали казахстанские боксеры
Бои человекоподобных роботов провели в Китае
От слесаря до начальника в газовой отрасли
Досаев подвёл итоги своей работы на посту акима Алматы
Бахтияр Вагабзаде и казахская литература
Аффинажный завод в Астане выдал 30-тысячный слиток дорогого металла
Срезан склон холма, жди оползня…
Полководец. Писатель. Патриот
Строительство десяти крупных заводов по производству хлопка начали в Туркестанской области
Прокуроры на фронте и в тылу – на страже закона и порядка
Костанайская область – лидер РК по производству и экспорту продуктов питания
Служебные собаки Нацгвардии отличились на международной выставке
Нацгвардия МВД РК отметила 80-летие Победы масштабной патриотической акцией
В Казахстане резко изменится погода
Три перекрестка временно закроют на ремонт в Астане
Дорога Атырау-Астрахань: завершающий этап
Будущее – за цифровыми активами
Железные дороги – национальное достояние и стратегический актив страны
Семья – духовный код нации
Трассу Жезказган – Петропавловск начали капитально ремонтировать в СКО
NASA подтвердило предсказание Стивена Хокинга о конце света
Блогеров арестовали в Астане за неудачную шутку в лифте
Жару сменят дожди в Казахстане
Атырауский завод выпустил 100-й грузовой вагон
Аэропорт Уральска увеличивает количество рейсов
Свыше 4 тыс. военнослужащих приняли участие в военном параде в честь 80-летия Великой Победы
Три междугородних автобуса арестовали на трассе в Акмолинской области

Читайте также

КазНУ внедряет ИИ в образовательный процесс
ChatGPT стал плательщиком НДС в Казахстане
Ферма, где роботы доят коров
Обучение по ИИ-навыкам для госслужащих запускают в РК

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]