Когда интеллект искусственный, а жертвы – реальные

Категория логотип
1056
Беседовала Лаура Тусупбекова

ИИ не должен превратиться из инструмента прогресса в орудие мошенников, считает МВА in AI, PR-специалист в сфере технологий Жанар САБАЗОВА

фото из архива Жанар Сабазовой

– ИИ-мошенничество больше не фантастика – это новая цифровая угроза, уже затронувшая тысячи казахстанцев. Подделанные голоса родственников, дипфейк-видео­звонки от «силовиков», фальшивые инвестпроекты и фишинговые атаки, созданные нейросетями, становятся все изощреннее. Насколько серьезно эта проблема затронула Казахстан?

– ИИ – уже не футуризм, а наша казахстанская реальность. По данным KZ-CERT, число инцидентов кибербезо­пасности в стране за два года фактически удвоилось: с 34,5 тысячи в 2023-м до 68,1 тысячи в 2024 году. Большая часть – вирусы, ботнеты (объе­динение устройств, зараженных вредоносным ПО, которое используется для проведения незаконных действий) и фишинг (вид интернет-мошенничества, при котором злоумышленники пытаются украсть личные данные – пароли, номера банковских карт, логины). Но эксперты прямо говорят: в атаках уже активно используют ИИ, в том числе для дипфейков и более убедительного фишинга.

На бытовом уровне это выглядит не как игра в киберпанк, а как очень приземленные истории. Звонят якобы сотрудники банка, операторы связи, полицейские, они уверенно оперируют вашими данными, подсовывают псевдодокументы и вытягивают деньги. МВД фиксирует тысячи таких эпизодов ежегодно, а по данным Генеральной прокуратуры, только за первые восемь месяцев 2025 года – более 14 тысяч случаев интернет-мошенничества с ущербом свыше шести миллиардов тенге.

Отдельный тревожный сигнал – массовая утечка персональных данных 16 миллионов граждан Казахстана. На фоне дешевых ИИ-инструментов – это идеальное сырье для таргетированных атак от персональных фишинговых рассылок до подделки голоса и видео конкретного человека. Так что да, Казахстан уже в эпицентре тренда: цифровизация у нас высокая, а киберграмотность населения пока не поспевает за технологиями, это и делает ситуацию острой.

– Назовите, пожалуйста, самые распространенные схемы ИИ-мошенников на сегодняшний день...

– Если смотреть на реальные кейсы, то сейчас работают несколько массовых схем, где ИИ – усилитель. Первый – это подделка голосов родственников и медийных лиц.

Национальный банк официально предупреждал: участились случаи, когда мошенники взламывают мессенджеры, скачивают голосовые сообщения, загружают их в нейросети и получают почти идеальный голос родного человека или известного блогера. Потом этим голосом звонят с просьбой срочно перевести деньги или поучаствовать в совместной операции с Нацбанком. Так обманулась мама моей подруги и перевела мошенникам деньги. Думаю, не нужно объяснять, какой это был стресс для их семьи.

Второй тренд более сложный, и цепочка включает нескольких лиц. Вам могут позвонить от имени сотового оператора, потом «сотрудник банка» и его «служба безопасности», чтобы укрепить вашу уверенность в том, что с вами говорят серьезные люди. Это целый сценарий с режиссурой. Скрипт выстроен так, что человек живет в состоянии стресса несколько часов и послушно выполняет указания. ИИ здесь отрабатывает тексты, ответы на возражения легко генерируются и подстраиваются под реакцию жерт­вы. Они пользуются доверчивостью пенсио­неров, специально звоня в такое время, когда их дети предположительно на работе.

Третий тренд – это дипфейк-видеозвонки от якобы представителей МВД, прокуратуры и Нацбанка, которые показывают поддельные документы и убеждают перевести деньги «на безопасный счет». Визуальный и голосовой ряд делается максимально правдоподобным. Если специалисты по ИИ могут отличить такие интеграции, то большинство обывателей нет.

Ну и четвертый, еще более новый тренд – красивый инстаграмный обман. Мошенники знают алгоритмы, они нау­чились создавать аккаунты, например, фейковых турфирм, гламурных домиков у озера, привлекательных инвестпроектов. Сочетание красивых фотографий, сторис, отзывов клиентов и скриншотов якобы официальных документов создает у человека ощущение, что это настоящая и надежная компания. Так что теперь обманывают качественным SMM и перформанс-маркетингом. ИИ тут активно используется для генерации текстов, изображений и ведения автодиалогов через ботов.

Не стоит забывать и о массовом фишинге и поиске «денежных мулов» – тех, кто сдает свои банковские карты за процент. ИИ здесь используется для генерации фишинговых писем и сайтов на русском и казахском языках, которые штампуются практически автоматически, плюс через чат-боты ищут этих самых «денежных мулов». Существующие сервисы с ИИ позволяют собрать красивый одностраничный сайт буквально за минуты, человек, который умеет этим пользоваться, может за день наделать десятки таких сайтов для обмана.

– А где те тонкие места, где рвется, и что нужно предпринять, чтобы их укрепить?

– На самом деле тонкие места у нас довольно понятные – человеческий фактор и слабая киберграмотность. Эксперты по медиаграмотности давно говорят, что мозг не успевает адаптироваться к цифровому шуму, а уровень базовой гигиены в Сети низкий. Многие по привычке верят голосу в трубке, красивому сайту, официальному тону, фотографиям документов.

Пока писала диссертацию по ИИ, я много общалась с коллегами из разных отраслей, так вот в целом звучал месседж о слабых требованиях к киберзащите критической инфраструктуры. В научных работах по кибербезопас­ности Казахстана прямо отмечают: у бизнеса пока не везде есть жесткие требования по SOC (внутренний центр кибербезопасности, который круглосуточно следит за системами компании), обязательной сегментации сетей и отчетности об инцидентах, в отличие от того же GDPR (Европейский закон о защите персональных данных, где за утечку можно получить огромный штраф) в ЕС.

Мошенники мгновенно подхватывают новые инструменты ИИ. Мало принятия закона – необходимо развитие киберграмотности. Это как с коллективным иммунитетом: нужно массовое обучение. Не раз в год лекция в школе или на предприятии о том, что такое ИИ и как с ним работать без рисков, а системные курсы цифровой и финансовой грамотности в школах, вузах и через еGov. При этом эффект будет виден через несколько лет, а усиливать обучение нужно сейчас.

Это иллюзия, что конкретно вас ничего не коснется, что уж вы-то точно не попадетесь на уловку мошенников. Пример из жизни. Моя мама как-то пришла ко мне очень оживленная и говорит: «Смотри, какая хорошая новость: национальная компания «Каз­атомпром» программу запустила, и даже Роза Рымбаева участвует, и Димаш Кудайберген. Давай тоже вложим средства, там и доход сразу будет». И показывает мне таргетированную рекламу с дипфейком наших казахстанских артистов и других известных личностей. Сделано хорошо, голос похож, артикуляция попадает. И я полчаса объясняю маме: то, что она видит, не существует. Это обман. Она мне говорит: «Ну как же? Вот и знакомые видели, думают вложиться»...

Понимаете? Это игра на эмоциях пожилого поколения, которое привыкло верить известным людям. А сколько детей не успели предупредить? Сколько людей в целом не понимают, что такое ИИ-технологии? Для них ИИ остался чатом GPT. А кто-то вообще не использует его и не может отличить генерацию от реальности.

Людям необходимо знать стандарт­ные правила кибергигиены в быту. Если вам поступил звонок от якобы банка⁄силовых органов, кладите трубку, перезванивайте по официальному номеру. Поверьте, банк никогда не просит перевести кого-то деньги на безопасный счет. И даже если пытаются давить на эмоции, рассказывая, что сейчас на вас оформляют кредит, кладите трубку.

А любой перевод по голосовому зап­росу родственника – только после перепроверки по другим каналам. Это скучные, но крайне рабочие привычки. Они могут помочь, если однажды ночью родственник позвонит вам и скажет, что ему срочно нужны деньги. А утром вы поймете, что он вам не звонил, его взломали.

Заведите простое правило в семье – слово-пароль, обозначающее, что это точно звонит ваш член семьи. Это слово не пишите в чатах. Просто помните, что, прося родных отправить деньги, вы его называете.

– Мошенничество с использованием цифровых технологий – это цветочки. Ягодки – это потенциальная угроза национальной безо­пасности…

– Да, онлайн-мошенничество – это вершина айсберга. Под водой три более крупных риска.

Главное – это подрыв доверия к государству и его институтам. Когда злоумыш­ленники подделывают звонки и документы от имени МВД, Нацбанка или других структур, граждане в итоге перестают верить даже реальным сотрудникам. Это бьет по легитимности институтов не хуже, чем обычная пропаганда.

Казахстан за последние годы столк­нулся с лавинообразным ростом киберинцидентов, а эволюция ИИ будет происходить дальше, создавая все более изощренные способы мошенничества. Это не значит, что виновата технология. Невозможно остановить прогресс, да это и экономически невыгодно.

Но крайне важно популяризировать знания о кибербезопасности, создавая массовую грамотность. Сделав из этого не элитарную узкодоступную информацию, когда в компании всего два-три специалиста по кибербезопасности, которые владеют пониманием ИИ, а когда более 60–70 процентов населения понимает, что это такое, какие возможности дает, как применяется и как себя обезопасить.

Мир уже увидел кейс, когда с помощью дипфейк-видеоконференции у международной компании Arup увели 25 миллионов долларов, имитируя руководство в режиме реального времени. Согласно отчету Всемирного экономического форума, ни одна из систем при этом не была скомпроментирована, то есть это была смесь социальной инженерии, дипфейков и нового вида изощренности в завоевании доверия сотрудников компании.

Если бы кибератаки были пулями, мы бы все ползали по полу, ведь это были бы тысячи пуль в секунду. Поэ­тому необходимы системные меры. Казахстан уже принял закон об ИИ, который, в частности, поднимает воп­росы ответственности за вред, причиненный системами ИИ, и затрагивает темы дипфейков и ИИ-фрода.

Но при нашем уровне цифровизации крайне важно вкладываться в укрепление национальных центров кибербезопасности. KZ-CERT уже собирает статистику и мониторит угро­зы. Развитие в кибербезопасности – игра на опережение угрозы, потому что пост-мортем (от лат. post mortem – «после смерти». – Прим. автора) – это уже случившийся инцидент. И мы не слышим о тысячах устраненных угроз именно потому, что они не случились.

– Можно ли с помощью самого ИИ бороться с кибермошенничеством?

– Не просто можно, а без этого мы уже не справимся по масштабу, ведь те же ботофермы генерируют миллионы ботов. Противостоять им можно тоже с помощью аналогов.

Сегодня ИИ в кибербезопасности используется для поиска аномалий и раннего обнаружения атак. Модели машинного обучения анализируют миллионы событий в сетях и информационных системах и отмечают нетипичное поведение: необычные транзакции, странные логины, подозрительные паттерны трафика.

Для детектирования дипфейков и синтезированных голосов появился отдельный класс решений, которые анализируют цифровые артефакты в аудио и видео, чтобы отличить их от реальной записи. На уровне регулирования это уже закрепляется в ЕС, вводятся требования к маркировке дипфейков и к использованию технологий обнаружения подделок, а также для интеллектуальной антифрод-аналитики в банках и финтехе. Сценарии ИИ-фрода (поддельное лицо⁄голос клиента, глубокая подделка документов) уже описаны в предупреждениях финрегуляторов, например, в предупреждениях FinCEN (подразделение Минфина США по борьбе с финансовыми преступлениями) по дипфейкам. На его основе банки разворачивают более сложные скоринговые модели, которые учитывают и биометрию, и поведение клиента.

Что мы можем перенять? Принятие ответственности не только для конкретных мошенников, но и для крупных платформ и операторов, если они системно не борются с фейковым контентом и ИИ-скамом (привычные схемы обмана, только усиленные ИИ). Казахстан вполне может сделать «единый щит» – объединить в одном приложении блокировку мошеннических звонков, проверку номеров и удобную подачу жалоб.

Но важно понимать: есть бытовой уровень защиты и есть профессиональный. Каждый из нас в силах сделать первый шаг на пути к кибергигиене – объяснить старшему поколению в своих семьях про технологии дипфейков, ИИ, рассказать о том, что не стоит переводить деньги без подтверждения, и тогда, даже если вашим близким позвонят от лица родных, у них будет грамотный ответ на эти действия.

– Что могут сделать бизнес, банки, телеком, финтех, чтобы лучше защищать клиентов?

– Качество внедрения ИИ во многом зависит от процессов. Если в процессах будет порядок, система будет эффективна.

В международной практике есть примеры на запрет голосовых операций с банками без второго канала подтверждения, а также лимиты на онлайн-кредиты и переводы для новых клиентов или необычные сценарии. Помните: ни один оператор банка или телеком-компании не имеет права входить в клиентский аккаунт под видом помощи, просить коды из SMS, пароли или биометрические данные.

Также важна поведенческая аналитика транзакций и логинов, которая ловит аномалии. Это антиспуфинг (комплекс технологий, направленных на распознавание признаков живого человека перед камерой) для голосовой биометрии и детекторы синтетической речи, если компания уже использует голос⁄фейс-ID.

И, конечно, необходимо инвестировать в обучение клиентов и сотрудников. Проводить антифрод-кампании в своих приложениях, рассылках, через звонки – объяснять про ИИ-подделку голоса и дипфейки на простом языке, с реальными кейсами. Регулярно тренировать собственные команды сценариями ИИ-мошенничества, как это делается с фишинг-симуляциями. Со временем в обществе возникнет эффект того, что, если хотя бы один человек в семье осведомлен, риски снижаются в целом для всей семьи.

Большое значение имеет обмен опытом об атаках и паттернах мошенников через профессиональные ассоциации и совместные проекты с KZ-CERT, TSARKA и правоохранительными органами, ведь это может помочь нарастить­ компетенцию внутри компании. По сути, если бизнес будет относиться к антифроду как к части клиентского сервиса и репутации, а не как к обязательной галочке для регулятора, это снизит риски утечек данных и цифровую агрессию для граждан.

– Но как же найти баланс между свободным развитием ИИ и контро­лем за его использованием?

– Моя позиция как IT-специалиста и пиарщика простая – запрещать технологии в целом бессмысленно, но и оставлять ИИ в режиме «дикого Запада» нельзя. Нужен риск-ориентированный подход.

Это значит необходимость регулирования высокорисковых сценариев в использовании ИИ в критической инфраструктуре, финсекторе, биометрии, госуправлении. Здесь нужна обязательная сертификация, аудит, логирование действий модели, оценка воздействия на права граждан. Логика примерно такая же, как в европейском AI Act и казахстанском законе об ИИ.

Важно обеспечить прозрачность там, где ИИ взаимодействует с людьми. Чат-боты, голосовые ассистенты, дипфейк-инструменты должны честно говорить пользователю, что он общается с машиной или смотрит ИИ-контент. Это уже закрепляется в европейском праве и должно стать нормой де-факто.

При этом важно создавать для бизнеса специальные «песочницы» – безо­пасные тестовые режимы, где новые ИИ-сервисы можно пробовать в реальных условиях, но под присмотром регулятора и с ограничениями по рискам для клиентов. Малому бизнесу, исследовательским командам, стартапам нужно давать возможность экспериментировать в регуляторных «песочницах» с понятными рамками и без риска оказаться под несоразмерными санкциями.

В числе самого важного – понимание необходимости вкладываться в просве­щение. Ни один закон не заменит базового понимания того, как работает ИИ, какие у него ограничения и где он может навредить. От медиаграмотности в школах до корпоративных программ по кибербезопасности – это долгосрочная, но ключевая инвестиция. Баланс – это когда у нас есть свобода создавать полезные ИИ-решения, но в рамках понятных правил игры, которые защищают людей, бизнес и государство от злоупотреблений.

 

Популярное

Все
В Стокгольме и Осло вручили Нобелевские премии
Новый цифровой маршрут: как Казахстан превращает транзит данных в стратегическое преимущество
В США запустили сайт по продаже «Золотой карты Трампа»
США собираются проверять соцсети у въезжающих иностранцев
Возврат активов: 15 млрд тенге выделили на водоснабжение сел Жамбылской области
Единую школу по зимним видам спорта создают в Астане
Президент Ирана прибыл в Акорду
Что изменилось в жизни казахстанцев: взгляд общества на реформы в год Независимости
В Актау впервые зарегистрирован случай посмертного донорства
В области Абай полицейские эвакуировали 24 человека с трассы
Арестован глава стройкомпании в Семее за хищение более 1 млрд тенге у дольщиков
Более 20 тыс. исполнительных надписей оформили нотариусы в сговоре с МФО
Токаев передал наилучшие пожелания аятолле Али Хаменеи
Задержан водитель, скрывшийся после смертельного наезда
ВАП зафиксировала факты избыточного изъятия активов Фонда соцстрахования
Токаев поблагодарил иранскую делегацию за копии ценных древних рукописей о Казахстане
«От сердца к сердцу» − акция волонтеров
Казахстанцы отличились на международном турнире по настольному теннису
Костанайские предприниматели просят отложить запрет на эксплуатацию трехосных самосвалов на 3 года
Какие документы подписал Казахстан с Ираном
В армию со своей гитарой: история талантливого солдата
Ключевой ориентир – человекоцентричность
Водитель из Талдыкоргана установил шокирующий антирекорд по ПДД
Партию «запрещёнки» пытались доставить в уральскую колонию
Новая аграрная политика Токаева меняет правила игры для бизнеса на селе
Первую красавицу Казахстана выбрали в Алматы
Не только помощь, но и образ жизни
Европейский Союз и Казахстан: Превращая общие вызовы в общие возможности
«Небо открыто для инвестиций»: эксперт в сфере о том, как превратить аэропорты Казахстана в глобальные грузовые хабы
Автоледи получила 1 год лишения свободы за нетрезвую езду в Конаеве
Охотничьи испытания казахского тазы провели в Алматинской области
В тройке лидеров
Армия усиливает подготовку допризывников
Арктический антициклон несет морозы в Казахстан
Гендерное равенство должно быть системным
В Приаралье приступили к выпуску зеркал
В Алматы выявляют «грязный» транспорт
Более 1 300 поездов прошли по вторым путям Достык – Мойынты
Президент поздравил чемпиона мира по таеквондо Бейбарыса Каблана
В Бенине военные захватили власть
Началось строительство сталелитейного завода
Какой будет зима в Казахстане, рассказали синоптики
Новые авто вручили гвардейцам в Караганде
Тестирование по Qaztest провели в командовании Нацгвардии
«Закон и порядок»: уроки цифровой грамотности организовали для столичных студентов
Из казармы в кампус
«Райская птица» зацвела в Северном Казахстане
Политика здравого смысла
Все строго по правилам
В Нацгвардии запустили курс подготовки операторов БПЛА
Мегапроект Саудовской Аравии «Зеркальная линия» – на грани провала
Устроившие погром на остановке нарушители получили по 10 суток ареста в Астане
Полицейские с помощью дрона зафиксировали грубое нарушение на трассе в Акмолинской области
Зима будет теплой
Школьники из Семея изготовили EcoBox из пластиковых крышек
Сильнейшие бадминтонисты мира соберутся в Астане
Талгар будет расти и вширь, и ввысь
Режут провода, портят светильники: Шымкент страдает от вандалов
Уверенный рост экономики Приаралья
Метель, туман, гололед: 20-градусные морозы надвигаются на Казахстан

Читайте также

Беречь время и ресурсы
С думой о Родине
Новая модель сельского менеджмента
Честная служба – важнейший фактор повышения доверия населен…

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]