Когда интеллект искусственный, а жертвы – реальные

Категория логотип
1321
Беседовала Лаура Тусупбекова

ИИ не должен превратиться из инструмента прогресса в орудие мошенников, считает МВА in AI, PR-специалист в сфере технологий Жанар САБАЗОВА

фото из архива Жанар Сабазовой

– ИИ-мошенничество больше не фантастика – это новая цифровая угроза, уже затронувшая тысячи казахстанцев. Подделанные голоса родственников, дипфейк-видео­звонки от «силовиков», фальшивые инвестпроекты и фишинговые атаки, созданные нейросетями, становятся все изощреннее. Насколько серьезно эта проблема затронула Казахстан?

– ИИ – уже не футуризм, а наша казахстанская реальность. По данным KZ-CERT, число инцидентов кибербезо­пасности в стране за два года фактически удвоилось: с 34,5 тысячи в 2023-м до 68,1 тысячи в 2024 году. Большая часть – вирусы, ботнеты (объе­динение устройств, зараженных вредоносным ПО, которое используется для проведения незаконных действий) и фишинг (вид интернет-мошенничества, при котором злоумышленники пытаются украсть личные данные – пароли, номера банковских карт, логины). Но эксперты прямо говорят: в атаках уже активно используют ИИ, в том числе для дипфейков и более убедительного фишинга.

На бытовом уровне это выглядит не как игра в киберпанк, а как очень приземленные истории. Звонят якобы сотрудники банка, операторы связи, полицейские, они уверенно оперируют вашими данными, подсовывают псевдодокументы и вытягивают деньги. МВД фиксирует тысячи таких эпизодов ежегодно, а по данным Генеральной прокуратуры, только за первые восемь месяцев 2025 года – более 14 тысяч случаев интернет-мошенничества с ущербом свыше шести миллиардов тенге.

Отдельный тревожный сигнал – массовая утечка персональных данных 16 миллионов граждан Казахстана. На фоне дешевых ИИ-инструментов – это идеальное сырье для таргетированных атак от персональных фишинговых рассылок до подделки голоса и видео конкретного человека. Так что да, Казахстан уже в эпицентре тренда: цифровизация у нас высокая, а киберграмотность населения пока не поспевает за технологиями, это и делает ситуацию острой.

– Назовите, пожалуйста, самые распространенные схемы ИИ-мошенников на сегодняшний день...

– Если смотреть на реальные кейсы, то сейчас работают несколько массовых схем, где ИИ – усилитель. Первый – это подделка голосов родственников и медийных лиц.

Национальный банк официально предупреждал: участились случаи, когда мошенники взламывают мессенджеры, скачивают голосовые сообщения, загружают их в нейросети и получают почти идеальный голос родного человека или известного блогера. Потом этим голосом звонят с просьбой срочно перевести деньги или поучаствовать в совместной операции с Нацбанком. Так обманулась мама моей подруги и перевела мошенникам деньги. Думаю, не нужно объяснять, какой это был стресс для их семьи.

Второй тренд более сложный, и цепочка включает нескольких лиц. Вам могут позвонить от имени сотового оператора, потом «сотрудник банка» и его «служба безопасности», чтобы укрепить вашу уверенность в том, что с вами говорят серьезные люди. Это целый сценарий с режиссурой. Скрипт выстроен так, что человек живет в состоянии стресса несколько часов и послушно выполняет указания. ИИ здесь отрабатывает тексты, ответы на возражения легко генерируются и подстраиваются под реакцию жерт­вы. Они пользуются доверчивостью пенсио­неров, специально звоня в такое время, когда их дети предположительно на работе.

Третий тренд – это дипфейк-видеозвонки от якобы представителей МВД, прокуратуры и Нацбанка, которые показывают поддельные документы и убеждают перевести деньги «на безопасный счет». Визуальный и голосовой ряд делается максимально правдоподобным. Если специалисты по ИИ могут отличить такие интеграции, то большинство обывателей нет.

Ну и четвертый, еще более новый тренд – красивый инстаграмный обман. Мошенники знают алгоритмы, они нау­чились создавать аккаунты, например, фейковых турфирм, гламурных домиков у озера, привлекательных инвестпроектов. Сочетание красивых фотографий, сторис, отзывов клиентов и скриншотов якобы официальных документов создает у человека ощущение, что это настоящая и надежная компания. Так что теперь обманывают качественным SMM и перформанс-маркетингом. ИИ тут активно используется для генерации текстов, изображений и ведения автодиалогов через ботов.

Не стоит забывать и о массовом фишинге и поиске «денежных мулов» – тех, кто сдает свои банковские карты за процент. ИИ здесь используется для генерации фишинговых писем и сайтов на русском и казахском языках, которые штампуются практически автоматически, плюс через чат-боты ищут этих самых «денежных мулов». Существующие сервисы с ИИ позволяют собрать красивый одностраничный сайт буквально за минуты, человек, который умеет этим пользоваться, может за день наделать десятки таких сайтов для обмана.

– А где те тонкие места, где рвется, и что нужно предпринять, чтобы их укрепить?

– На самом деле тонкие места у нас довольно понятные – человеческий фактор и слабая киберграмотность. Эксперты по медиаграмотности давно говорят, что мозг не успевает адаптироваться к цифровому шуму, а уровень базовой гигиены в Сети низкий. Многие по привычке верят голосу в трубке, красивому сайту, официальному тону, фотографиям документов.

Пока писала диссертацию по ИИ, я много общалась с коллегами из разных отраслей, так вот в целом звучал месседж о слабых требованиях к киберзащите критической инфраструктуры. В научных работах по кибербезопас­ности Казахстана прямо отмечают: у бизнеса пока не везде есть жесткие требования по SOC (внутренний центр кибербезопасности, который круглосуточно следит за системами компании), обязательной сегментации сетей и отчетности об инцидентах, в отличие от того же GDPR (Европейский закон о защите персональных данных, где за утечку можно получить огромный штраф) в ЕС.

Мошенники мгновенно подхватывают новые инструменты ИИ. Мало принятия закона – необходимо развитие киберграмотности. Это как с коллективным иммунитетом: нужно массовое обучение. Не раз в год лекция в школе или на предприятии о том, что такое ИИ и как с ним работать без рисков, а системные курсы цифровой и финансовой грамотности в школах, вузах и через еGov. При этом эффект будет виден через несколько лет, а усиливать обучение нужно сейчас.

Это иллюзия, что конкретно вас ничего не коснется, что уж вы-то точно не попадетесь на уловку мошенников. Пример из жизни. Моя мама как-то пришла ко мне очень оживленная и говорит: «Смотри, какая хорошая новость: национальная компания «Каз­атомпром» программу запустила, и даже Роза Рымбаева участвует, и Димаш Кудайберген. Давай тоже вложим средства, там и доход сразу будет». И показывает мне таргетированную рекламу с дипфейком наших казахстанских артистов и других известных личностей. Сделано хорошо, голос похож, артикуляция попадает. И я полчаса объясняю маме: то, что она видит, не существует. Это обман. Она мне говорит: «Ну как же? Вот и знакомые видели, думают вложиться»...

Понимаете? Это игра на эмоциях пожилого поколения, которое привыкло верить известным людям. А сколько детей не успели предупредить? Сколько людей в целом не понимают, что такое ИИ-технологии? Для них ИИ остался чатом GPT. А кто-то вообще не использует его и не может отличить генерацию от реальности.

Людям необходимо знать стандарт­ные правила кибергигиены в быту. Если вам поступил звонок от якобы банка⁄силовых органов, кладите трубку, перезванивайте по официальному номеру. Поверьте, банк никогда не просит перевести кого-то деньги на безопасный счет. И даже если пытаются давить на эмоции, рассказывая, что сейчас на вас оформляют кредит, кладите трубку.

А любой перевод по голосовому зап­росу родственника – только после перепроверки по другим каналам. Это скучные, но крайне рабочие привычки. Они могут помочь, если однажды ночью родственник позвонит вам и скажет, что ему срочно нужны деньги. А утром вы поймете, что он вам не звонил, его взломали.

Заведите простое правило в семье – слово-пароль, обозначающее, что это точно звонит ваш член семьи. Это слово не пишите в чатах. Просто помните, что, прося родных отправить деньги, вы его называете.

– Мошенничество с использованием цифровых технологий – это цветочки. Ягодки – это потенциальная угроза национальной безо­пасности…

– Да, онлайн-мошенничество – это вершина айсберга. Под водой три более крупных риска.

Главное – это подрыв доверия к государству и его институтам. Когда злоумыш­ленники подделывают звонки и документы от имени МВД, Нацбанка или других структур, граждане в итоге перестают верить даже реальным сотрудникам. Это бьет по легитимности институтов не хуже, чем обычная пропаганда.

Казахстан за последние годы столк­нулся с лавинообразным ростом киберинцидентов, а эволюция ИИ будет происходить дальше, создавая все более изощренные способы мошенничества. Это не значит, что виновата технология. Невозможно остановить прогресс, да это и экономически невыгодно.

Но крайне важно популяризировать знания о кибербезопасности, создавая массовую грамотность. Сделав из этого не элитарную узкодоступную информацию, когда в компании всего два-три специалиста по кибербезопасности, которые владеют пониманием ИИ, а когда более 60–70 процентов населения понимает, что это такое, какие возможности дает, как применяется и как себя обезопасить.

Мир уже увидел кейс, когда с помощью дипфейк-видеоконференции у международной компании Arup увели 25 миллионов долларов, имитируя руководство в режиме реального времени. Согласно отчету Всемирного экономического форума, ни одна из систем при этом не была скомпроментирована, то есть это была смесь социальной инженерии, дипфейков и нового вида изощренности в завоевании доверия сотрудников компании.

Если бы кибератаки были пулями, мы бы все ползали по полу, ведь это были бы тысячи пуль в секунду. Поэ­тому необходимы системные меры. Казахстан уже принял закон об ИИ, который, в частности, поднимает воп­росы ответственности за вред, причиненный системами ИИ, и затрагивает темы дипфейков и ИИ-фрода.

Но при нашем уровне цифровизации крайне важно вкладываться в укрепление национальных центров кибербезопасности. KZ-CERT уже собирает статистику и мониторит угро­зы. Развитие в кибербезопасности – игра на опережение угрозы, потому что пост-мортем (от лат. post mortem – «после смерти». – Прим. автора) – это уже случившийся инцидент. И мы не слышим о тысячах устраненных угроз именно потому, что они не случились.

– Можно ли с помощью самого ИИ бороться с кибермошенничеством?

– Не просто можно, а без этого мы уже не справимся по масштабу, ведь те же ботофермы генерируют миллионы ботов. Противостоять им можно тоже с помощью аналогов.

Сегодня ИИ в кибербезопасности используется для поиска аномалий и раннего обнаружения атак. Модели машинного обучения анализируют миллионы событий в сетях и информационных системах и отмечают нетипичное поведение: необычные транзакции, странные логины, подозрительные паттерны трафика.

Для детектирования дипфейков и синтезированных голосов появился отдельный класс решений, которые анализируют цифровые артефакты в аудио и видео, чтобы отличить их от реальной записи. На уровне регулирования это уже закрепляется в ЕС, вводятся требования к маркировке дипфейков и к использованию технологий обнаружения подделок, а также для интеллектуальной антифрод-аналитики в банках и финтехе. Сценарии ИИ-фрода (поддельное лицо⁄голос клиента, глубокая подделка документов) уже описаны в предупреждениях финрегуляторов, например, в предупреждениях FinCEN (подразделение Минфина США по борьбе с финансовыми преступлениями) по дипфейкам. На его основе банки разворачивают более сложные скоринговые модели, которые учитывают и биометрию, и поведение клиента.

Что мы можем перенять? Принятие ответственности не только для конкретных мошенников, но и для крупных платформ и операторов, если они системно не борются с фейковым контентом и ИИ-скамом (привычные схемы обмана, только усиленные ИИ). Казахстан вполне может сделать «единый щит» – объединить в одном приложении блокировку мошеннических звонков, проверку номеров и удобную подачу жалоб.

Но важно понимать: есть бытовой уровень защиты и есть профессиональный. Каждый из нас в силах сделать первый шаг на пути к кибергигиене – объяснить старшему поколению в своих семьях про технологии дипфейков, ИИ, рассказать о том, что не стоит переводить деньги без подтверждения, и тогда, даже если вашим близким позвонят от лица родных, у них будет грамотный ответ на эти действия.

– Что могут сделать бизнес, банки, телеком, финтех, чтобы лучше защищать клиентов?

– Качество внедрения ИИ во многом зависит от процессов. Если в процессах будет порядок, система будет эффективна.

В международной практике есть примеры на запрет голосовых операций с банками без второго канала подтверждения, а также лимиты на онлайн-кредиты и переводы для новых клиентов или необычные сценарии. Помните: ни один оператор банка или телеком-компании не имеет права входить в клиентский аккаунт под видом помощи, просить коды из SMS, пароли или биометрические данные.

Также важна поведенческая аналитика транзакций и логинов, которая ловит аномалии. Это антиспуфинг (комплекс технологий, направленных на распознавание признаков живого человека перед камерой) для голосовой биометрии и детекторы синтетической речи, если компания уже использует голос⁄фейс-ID.

И, конечно, необходимо инвестировать в обучение клиентов и сотрудников. Проводить антифрод-кампании в своих приложениях, рассылках, через звонки – объяснять про ИИ-подделку голоса и дипфейки на простом языке, с реальными кейсами. Регулярно тренировать собственные команды сценариями ИИ-мошенничества, как это делается с фишинг-симуляциями. Со временем в обществе возникнет эффект того, что, если хотя бы один человек в семье осведомлен, риски снижаются в целом для всей семьи.

Большое значение имеет обмен опытом об атаках и паттернах мошенников через профессиональные ассоциации и совместные проекты с KZ-CERT, TSARKA и правоохранительными органами, ведь это может помочь нарастить­ компетенцию внутри компании. По сути, если бизнес будет относиться к антифроду как к части клиентского сервиса и репутации, а не как к обязательной галочке для регулятора, это снизит риски утечек данных и цифровую агрессию для граждан.

– Но как же найти баланс между свободным развитием ИИ и контро­лем за его использованием?

– Моя позиция как IT-специалиста и пиарщика простая – запрещать технологии в целом бессмысленно, но и оставлять ИИ в режиме «дикого Запада» нельзя. Нужен риск-ориентированный подход.

Это значит необходимость регулирования высокорисковых сценариев в использовании ИИ в критической инфраструктуре, финсекторе, биометрии, госуправлении. Здесь нужна обязательная сертификация, аудит, логирование действий модели, оценка воздействия на права граждан. Логика примерно такая же, как в европейском AI Act и казахстанском законе об ИИ.

Важно обеспечить прозрачность там, где ИИ взаимодействует с людьми. Чат-боты, голосовые ассистенты, дипфейк-инструменты должны честно говорить пользователю, что он общается с машиной или смотрит ИИ-контент. Это уже закрепляется в европейском праве и должно стать нормой де-факто.

При этом важно создавать для бизнеса специальные «песочницы» – безо­пасные тестовые режимы, где новые ИИ-сервисы можно пробовать в реальных условиях, но под присмотром регулятора и с ограничениями по рискам для клиентов. Малому бизнесу, исследовательским командам, стартапам нужно давать возможность экспериментировать в регуляторных «песочницах» с понятными рамками и без риска оказаться под несоразмерными санкциями.

В числе самого важного – понимание необходимости вкладываться в просве­щение. Ни один закон не заменит базового понимания того, как работает ИИ, какие у него ограничения и где он может навредить. От медиаграмотности в школах до корпоративных программ по кибербезопасности – это долгосрочная, но ключевая инвестиция. Баланс – это когда у нас есть свобода создавать полезные ИИ-решения, но в рамках понятных правил игры, которые защищают людей, бизнес и государство от злоупотреблений.

 

Популярное

Все
День рождения национального театра
Здесь звук смешался с цветом
Сердце не выдержало…
Миллионные штрафы рыбакам-браконьерам
Кушать подано!
Стартовала Международная Жаутыковская олимпиада
Новый рекорд Александра Бублика
Предупреждая паводок
135 очередников получили ключи от собственного жилья
Молодежь против наркорекламы
У ветерана вековой юбилей
Современное оборудование и передовые методы – козыри крупнейшего в республике цинкового производства
Стратегический ресурс
От филармонии до промцеха
Первая модульная КОС на селе
Защита флоры и фауны – под личный контроль Президента
Отраслевая перезагрузка
Актуальные задачи и стратегические ориентиры
«Талап»: система и ответственность
Свой путь к чистой энергии
Вблизи побережья Алаколя обнаружен средневековый караван-сарай
В Нацгвардии начался новый учебный период
Вскрыта вторая допинг-проба боксера Жанибека Алимханулы
В воинской части 6505 около 400 солдат приняли воинскую присягу
Гвардейцы завоевали медали на Чемпионате Азии AMMA в Китае
В Астане начали набор на бесплатные курсы казахского языка для взрослых
Глава МО проверил военные объекты в Кызылординской области
В Семее открылся цех по выпуску молочной упаковки
Покоритель космических высот
Жайлаутобе – одна из оборонительных крепостей кангюев?
С новыми тарифами предложено подождать
Казахстанцев предупредили о гонконгском гриппе
Дело направлено в суд: миллионы тенге от продажи наркотиков легализовали в РК
Свыше 1,7 тысяч водительских удостоверений в РК аннулировали из-за медпоказаний
Афера сорвалась в кабинете директора
Погодные качели: Казахстан окажется в эпицентре северо-западного циклона
«Осторожно, GhostPairing»: МВД предупредило о новой схеме взлома WhatsApp
63 бункера для КГМ установят в Костанае
35 дворов обновят в этом году в Костанае
Максимальные ставки по банковским займам установили в Казахстане
Накануне Нового года в супермаркетах начнется продажа по низким ценам
115 лет Бауыржану Момышулы: имя, которое выбирают защитники Родины
Гвардейцы наполнили столицу новогодним настроением
Продажу удешевленной говядины через торговые сети масштабируют в Казахстане
Американец выплатил сотрудникам $240 млн премии после продажи своей компании
В ЗКО ввели в строй первую в РК модульную станцию по очистке сточных вод
Финансовую дисциплину и цифровизацию здравоохранения обсудили в Правительстве
Гвардейцы поздравили воспитанников детских домов с Новым годом
Налог на транспорт изменен в Казахстане
«Барыс» возвращается в зону плей-офф
В Астане с начала года ликвидировали два мошеннических колл-центра
К 105-летию Героя Советского Союза Жалела Кизатова издана книга
Поддержка педагогов – инвестиция в будущее страны
Автомобилестроение Казахстана демонстрирует рекордные показатели роста
Два завода в отрасли автомобилестроения готовятся к запуску в Костанае
Завод почти на 50 млрд тенге построят в Актюбинской области
Американские чиновники отметили День Независимости Казахстана в Хьюстоне
Касым-Жомарт Токаев прибыл в Санкт-Петербург
Испанская компания вложит 44 млрд тенге в строительство завода в Кызылординской области
Хосе Антонио Каст победил на выборах президента Чили

Читайте также

Приверженность рыночной экономике
Ключевые принципы общественного бытия
Доверие к системе – ключевой фактор для иностранных пациент…
Когда конкуренция не во благо

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]