Когда интеллект искусственный, а жертвы – реальные

Категория логотип
1775
Беседовала Лаура Тусупбекова

ИИ не должен превратиться из инструмента прогресса в орудие мошенников, считает МВА in AI, PR-специалист в сфере технологий Жанар САБАЗОВА

фото из архива Жанар Сабазовой

– ИИ-мошенничество больше не фантастика – это новая цифровая угроза, уже затронувшая тысячи казахстанцев. Подделанные голоса родственников, дипфейк-видео­звонки от «силовиков», фальшивые инвестпроекты и фишинговые атаки, созданные нейросетями, становятся все изощреннее. Насколько серьезно эта проблема затронула Казахстан?

– ИИ – уже не футуризм, а наша казахстанская реальность. По данным KZ-CERT, число инцидентов кибербезо­пасности в стране за два года фактически удвоилось: с 34,5 тысячи в 2023-м до 68,1 тысячи в 2024 году. Большая часть – вирусы, ботнеты (объе­динение устройств, зараженных вредоносным ПО, которое используется для проведения незаконных действий) и фишинг (вид интернет-мошенничества, при котором злоумышленники пытаются украсть личные данные – пароли, номера банковских карт, логины). Но эксперты прямо говорят: в атаках уже активно используют ИИ, в том числе для дипфейков и более убедительного фишинга.

На бытовом уровне это выглядит не как игра в киберпанк, а как очень приземленные истории. Звонят якобы сотрудники банка, операторы связи, полицейские, они уверенно оперируют вашими данными, подсовывают псевдодокументы и вытягивают деньги. МВД фиксирует тысячи таких эпизодов ежегодно, а по данным Генеральной прокуратуры, только за первые восемь месяцев 2025 года – более 14 тысяч случаев интернет-мошенничества с ущербом свыше шести миллиардов тенге.

Отдельный тревожный сигнал – массовая утечка персональных данных 16 миллионов граждан Казахстана. На фоне дешевых ИИ-инструментов – это идеальное сырье для таргетированных атак от персональных фишинговых рассылок до подделки голоса и видео конкретного человека. Так что да, Казахстан уже в эпицентре тренда: цифровизация у нас высокая, а киберграмотность населения пока не поспевает за технологиями, это и делает ситуацию острой.

– Назовите, пожалуйста, самые распространенные схемы ИИ-мошенников на сегодняшний день...

– Если смотреть на реальные кейсы, то сейчас работают несколько массовых схем, где ИИ – усилитель. Первый – это подделка голосов родственников и медийных лиц.

Национальный банк официально предупреждал: участились случаи, когда мошенники взламывают мессенджеры, скачивают голосовые сообщения, загружают их в нейросети и получают почти идеальный голос родного человека или известного блогера. Потом этим голосом звонят с просьбой срочно перевести деньги или поучаствовать в совместной операции с Нацбанком. Так обманулась мама моей подруги и перевела мошенникам деньги. Думаю, не нужно объяснять, какой это был стресс для их семьи.

Второй тренд более сложный, и цепочка включает нескольких лиц. Вам могут позвонить от имени сотового оператора, потом «сотрудник банка» и его «служба безопасности», чтобы укрепить вашу уверенность в том, что с вами говорят серьезные люди. Это целый сценарий с режиссурой. Скрипт выстроен так, что человек живет в состоянии стресса несколько часов и послушно выполняет указания. ИИ здесь отрабатывает тексты, ответы на возражения легко генерируются и подстраиваются под реакцию жерт­вы. Они пользуются доверчивостью пенсио­неров, специально звоня в такое время, когда их дети предположительно на работе.

Третий тренд – это дипфейк-видеозвонки от якобы представителей МВД, прокуратуры и Нацбанка, которые показывают поддельные документы и убеждают перевести деньги «на безопасный счет». Визуальный и голосовой ряд делается максимально правдоподобным. Если специалисты по ИИ могут отличить такие интеграции, то большинство обывателей нет.

Ну и четвертый, еще более новый тренд – красивый инстаграмный обман. Мошенники знают алгоритмы, они нау­чились создавать аккаунты, например, фейковых турфирм, гламурных домиков у озера, привлекательных инвестпроектов. Сочетание красивых фотографий, сторис, отзывов клиентов и скриншотов якобы официальных документов создает у человека ощущение, что это настоящая и надежная компания. Так что теперь обманывают качественным SMM и перформанс-маркетингом. ИИ тут активно используется для генерации текстов, изображений и ведения автодиалогов через ботов.

Не стоит забывать и о массовом фишинге и поиске «денежных мулов» – тех, кто сдает свои банковские карты за процент. ИИ здесь используется для генерации фишинговых писем и сайтов на русском и казахском языках, которые штампуются практически автоматически, плюс через чат-боты ищут этих самых «денежных мулов». Существующие сервисы с ИИ позволяют собрать красивый одностраничный сайт буквально за минуты, человек, который умеет этим пользоваться, может за день наделать десятки таких сайтов для обмана.

– А где те тонкие места, где рвется, и что нужно предпринять, чтобы их укрепить?

– На самом деле тонкие места у нас довольно понятные – человеческий фактор и слабая киберграмотность. Эксперты по медиаграмотности давно говорят, что мозг не успевает адаптироваться к цифровому шуму, а уровень базовой гигиены в Сети низкий. Многие по привычке верят голосу в трубке, красивому сайту, официальному тону, фотографиям документов.

Пока писала диссертацию по ИИ, я много общалась с коллегами из разных отраслей, так вот в целом звучал месседж о слабых требованиях к киберзащите критической инфраструктуры. В научных работах по кибербезопас­ности Казахстана прямо отмечают: у бизнеса пока не везде есть жесткие требования по SOC (внутренний центр кибербезопасности, который круглосуточно следит за системами компании), обязательной сегментации сетей и отчетности об инцидентах, в отличие от того же GDPR (Европейский закон о защите персональных данных, где за утечку можно получить огромный штраф) в ЕС.

Мошенники мгновенно подхватывают новые инструменты ИИ. Мало принятия закона – необходимо развитие киберграмотности. Это как с коллективным иммунитетом: нужно массовое обучение. Не раз в год лекция в школе или на предприятии о том, что такое ИИ и как с ним работать без рисков, а системные курсы цифровой и финансовой грамотности в школах, вузах и через еGov. При этом эффект будет виден через несколько лет, а усиливать обучение нужно сейчас.

Это иллюзия, что конкретно вас ничего не коснется, что уж вы-то точно не попадетесь на уловку мошенников. Пример из жизни. Моя мама как-то пришла ко мне очень оживленная и говорит: «Смотри, какая хорошая новость: национальная компания «Каз­атомпром» программу запустила, и даже Роза Рымбаева участвует, и Димаш Кудайберген. Давай тоже вложим средства, там и доход сразу будет». И показывает мне таргетированную рекламу с дипфейком наших казахстанских артистов и других известных личностей. Сделано хорошо, голос похож, артикуляция попадает. И я полчаса объясняю маме: то, что она видит, не существует. Это обман. Она мне говорит: «Ну как же? Вот и знакомые видели, думают вложиться»...

Понимаете? Это игра на эмоциях пожилого поколения, которое привыкло верить известным людям. А сколько детей не успели предупредить? Сколько людей в целом не понимают, что такое ИИ-технологии? Для них ИИ остался чатом GPT. А кто-то вообще не использует его и не может отличить генерацию от реальности.

Людям необходимо знать стандарт­ные правила кибергигиены в быту. Если вам поступил звонок от якобы банка⁄силовых органов, кладите трубку, перезванивайте по официальному номеру. Поверьте, банк никогда не просит перевести кого-то деньги на безопасный счет. И даже если пытаются давить на эмоции, рассказывая, что сейчас на вас оформляют кредит, кладите трубку.

А любой перевод по голосовому зап­росу родственника – только после перепроверки по другим каналам. Это скучные, но крайне рабочие привычки. Они могут помочь, если однажды ночью родственник позвонит вам и скажет, что ему срочно нужны деньги. А утром вы поймете, что он вам не звонил, его взломали.

Заведите простое правило в семье – слово-пароль, обозначающее, что это точно звонит ваш член семьи. Это слово не пишите в чатах. Просто помните, что, прося родных отправить деньги, вы его называете.

– Мошенничество с использованием цифровых технологий – это цветочки. Ягодки – это потенциальная угроза национальной безо­пасности…

– Да, онлайн-мошенничество – это вершина айсберга. Под водой три более крупных риска.

Главное – это подрыв доверия к государству и его институтам. Когда злоумыш­ленники подделывают звонки и документы от имени МВД, Нацбанка или других структур, граждане в итоге перестают верить даже реальным сотрудникам. Это бьет по легитимности институтов не хуже, чем обычная пропаганда.

Казахстан за последние годы столк­нулся с лавинообразным ростом киберинцидентов, а эволюция ИИ будет происходить дальше, создавая все более изощренные способы мошенничества. Это не значит, что виновата технология. Невозможно остановить прогресс, да это и экономически невыгодно.

Но крайне важно популяризировать знания о кибербезопасности, создавая массовую грамотность. Сделав из этого не элитарную узкодоступную информацию, когда в компании всего два-три специалиста по кибербезопасности, которые владеют пониманием ИИ, а когда более 60–70 процентов населения понимает, что это такое, какие возможности дает, как применяется и как себя обезопасить.

Мир уже увидел кейс, когда с помощью дипфейк-видеоконференции у международной компании Arup увели 25 миллионов долларов, имитируя руководство в режиме реального времени. Согласно отчету Всемирного экономического форума, ни одна из систем при этом не была скомпроментирована, то есть это была смесь социальной инженерии, дипфейков и нового вида изощренности в завоевании доверия сотрудников компании.

Если бы кибератаки были пулями, мы бы все ползали по полу, ведь это были бы тысячи пуль в секунду. Поэ­тому необходимы системные меры. Казахстан уже принял закон об ИИ, который, в частности, поднимает воп­росы ответственности за вред, причиненный системами ИИ, и затрагивает темы дипфейков и ИИ-фрода.

Но при нашем уровне цифровизации крайне важно вкладываться в укрепление национальных центров кибербезопасности. KZ-CERT уже собирает статистику и мониторит угро­зы. Развитие в кибербезопасности – игра на опережение угрозы, потому что пост-мортем (от лат. post mortem – «после смерти». – Прим. автора) – это уже случившийся инцидент. И мы не слышим о тысячах устраненных угроз именно потому, что они не случились.

– Можно ли с помощью самого ИИ бороться с кибермошенничеством?

– Не просто можно, а без этого мы уже не справимся по масштабу, ведь те же ботофермы генерируют миллионы ботов. Противостоять им можно тоже с помощью аналогов.

Сегодня ИИ в кибербезопасности используется для поиска аномалий и раннего обнаружения атак. Модели машинного обучения анализируют миллионы событий в сетях и информационных системах и отмечают нетипичное поведение: необычные транзакции, странные логины, подозрительные паттерны трафика.

Для детектирования дипфейков и синтезированных голосов появился отдельный класс решений, которые анализируют цифровые артефакты в аудио и видео, чтобы отличить их от реальной записи. На уровне регулирования это уже закрепляется в ЕС, вводятся требования к маркировке дипфейков и к использованию технологий обнаружения подделок, а также для интеллектуальной антифрод-аналитики в банках и финтехе. Сценарии ИИ-фрода (поддельное лицо⁄голос клиента, глубокая подделка документов) уже описаны в предупреждениях финрегуляторов, например, в предупреждениях FinCEN (подразделение Минфина США по борьбе с финансовыми преступлениями) по дипфейкам. На его основе банки разворачивают более сложные скоринговые модели, которые учитывают и биометрию, и поведение клиента.

Что мы можем перенять? Принятие ответственности не только для конкретных мошенников, но и для крупных платформ и операторов, если они системно не борются с фейковым контентом и ИИ-скамом (привычные схемы обмана, только усиленные ИИ). Казахстан вполне может сделать «единый щит» – объединить в одном приложении блокировку мошеннических звонков, проверку номеров и удобную подачу жалоб.

Но важно понимать: есть бытовой уровень защиты и есть профессиональный. Каждый из нас в силах сделать первый шаг на пути к кибергигиене – объяснить старшему поколению в своих семьях про технологии дипфейков, ИИ, рассказать о том, что не стоит переводить деньги без подтверждения, и тогда, даже если вашим близким позвонят от лица родных, у них будет грамотный ответ на эти действия.

– Что могут сделать бизнес, банки, телеком, финтех, чтобы лучше защищать клиентов?

– Качество внедрения ИИ во многом зависит от процессов. Если в процессах будет порядок, система будет эффективна.

В международной практике есть примеры на запрет голосовых операций с банками без второго канала подтверждения, а также лимиты на онлайн-кредиты и переводы для новых клиентов или необычные сценарии. Помните: ни один оператор банка или телеком-компании не имеет права входить в клиентский аккаунт под видом помощи, просить коды из SMS, пароли или биометрические данные.

Также важна поведенческая аналитика транзакций и логинов, которая ловит аномалии. Это антиспуфинг (комплекс технологий, направленных на распознавание признаков живого человека перед камерой) для голосовой биометрии и детекторы синтетической речи, если компания уже использует голос⁄фейс-ID.

И, конечно, необходимо инвестировать в обучение клиентов и сотрудников. Проводить антифрод-кампании в своих приложениях, рассылках, через звонки – объяснять про ИИ-подделку голоса и дипфейки на простом языке, с реальными кейсами. Регулярно тренировать собственные команды сценариями ИИ-мошенничества, как это делается с фишинг-симуляциями. Со временем в обществе возникнет эффект того, что, если хотя бы один человек в семье осведомлен, риски снижаются в целом для всей семьи.

Большое значение имеет обмен опытом об атаках и паттернах мошенников через профессиональные ассоциации и совместные проекты с KZ-CERT, TSARKA и правоохранительными органами, ведь это может помочь нарастить­ компетенцию внутри компании. По сути, если бизнес будет относиться к антифроду как к части клиентского сервиса и репутации, а не как к обязательной галочке для регулятора, это снизит риски утечек данных и цифровую агрессию для граждан.

– Но как же найти баланс между свободным развитием ИИ и контро­лем за его использованием?

– Моя позиция как IT-специалиста и пиарщика простая – запрещать технологии в целом бессмысленно, но и оставлять ИИ в режиме «дикого Запада» нельзя. Нужен риск-ориентированный подход.

Это значит необходимость регулирования высокорисковых сценариев в использовании ИИ в критической инфраструктуре, финсекторе, биометрии, госуправлении. Здесь нужна обязательная сертификация, аудит, логирование действий модели, оценка воздействия на права граждан. Логика примерно такая же, как в европейском AI Act и казахстанском законе об ИИ.

Важно обеспечить прозрачность там, где ИИ взаимодействует с людьми. Чат-боты, голосовые ассистенты, дипфейк-инструменты должны честно говорить пользователю, что он общается с машиной или смотрит ИИ-контент. Это уже закрепляется в европейском праве и должно стать нормой де-факто.

При этом важно создавать для бизнеса специальные «песочницы» – безо­пасные тестовые режимы, где новые ИИ-сервисы можно пробовать в реальных условиях, но под присмотром регулятора и с ограничениями по рискам для клиентов. Малому бизнесу, исследовательским командам, стартапам нужно давать возможность экспериментировать в регуляторных «песочницах» с понятными рамками и без риска оказаться под несоразмерными санкциями.

В числе самого важного – понимание необходимости вкладываться в просве­щение. Ни один закон не заменит базового понимания того, как работает ИИ, какие у него ограничения и где он может навредить. От медиаграмотности в школах до корпоративных программ по кибербезопасности – это долгосрочная, но ключевая инвестиция. Баланс – это когда у нас есть свобода создавать полезные ИИ-решения, но в рамках понятных правил игры, которые защищают людей, бизнес и государство от злоупотреблений.

 

Популярное

Все
«Кайрат» возглавил турнирную таблицу
Вдохновленные весной
Гвардейцы встретились со школьниками в Астане
Военная семья – надежный тыл: семья Таубаевых
Наурызнама: национальные узоры в форме и на технике гвардейцев
Гвардеец знает наизусть около 100 кюев
В воинской части 5451 Нацгвардии провели церемонию «Тұсаукесер»
Военнослужащие провели благотворительную акцию в Павлодаре
Рост сельхозпроизводства зафиксирован в Казахстане
Референдум – 2026: весь личный состав МВД переведен на усиление
Олжас Бектенов проголосовал на республиканском референдуме
В Атырау начал работу особенный магазин
Более 200 мероприятий пройдет в Астане в честь празднования Наурыза
Опубликован текст новой Конституции Казахстана
Ваш выбор не просто галочка в бюллетене, а веское слово за Народную Конституцию – Токаев обратился к молодежи
Победы на турнире Alem Cup
240 единиц нового оборудования предоставит GIZ бассейновым водным инспекциям Казахстана
МЧС внедряет дроны с ИИ для спасательных операций
Референдум-2026: Обновлены данные по явке
Семь вкусов благополучия. Что готовят на Наурыз?
Весна начинается с рукопожатия
На реках начали дробление льда
На страже неба: женское лицо авиации
Мужской хор Нацгвардии поздравил женщин столицы
В Конаеве начали строить КОС
Семь лет уверенного созидательного лидерства
Победитель UAE SWAT Challenge 2026 встретился со школьниками
Хор Нацгвардии произвел фурор на музыкальном шоу
Гвардеец стал призёром международных соревнований по дрон-рейсингу в Астане
Арсен Томский подарил автомобиль отцу олимпийского чемпиона Михаила Шайдорова
Наука: от конституционного статуса к технологическому суверенитету
Морозы возвращаются в Казахстан
Подставить вовремя плечо
Роналду начал переговоры о возвращении в Европу
Без наценок и посредников
В Карагандинском зоопарке – пополнение
Учебник как инструмент успеха
Развитие человеческого капитала в контексте реформ Президента
Слово о замечательном человеке
Фундамент новой эпохи независимого Казахстана
Семь человек погибло при взрыве в кафе Щучинска
«Барыс» готовится к досрочному отпуску

Читайте также

Рекордсмену – 80!
Женщина на производстве
Сегодня модно быть здоровым
Когда в степи цветут тюльпаны...

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]