Как чат-боты манипулируют людьми

1247
Айман Аманжолова
корреспондент

Исследование показало, что пользователи забывают о конфиденциальности и безопасности, когда разговор с чат-ботом переходит в плоскость эмоций, передает корреспондент Kazpravda.kz со ссылкой на Евроньюз

Фото: Kazpravda.kz / Адильбек Тауекелов

Чат-боты с искусственным интеллектом (ИИ) могут легко манипулировать людьми, заставляя их раскрывать глубоко личную информацию, показало новое исследование Королевского колледжа Лондона. На фоне растущей популярности ChatGPT от OpenAI, Google Gemini и Microsoft Copiloо эксперты по защите персональных данных выражают обеспокоенность тем, как эти инструменты собирают и хранят информацию о пользователях и насколько способны к токсичному воздействию.

"Чат-боты с искусственным интеллектом все еще относительно новы, поэтому люди могут не понимать, что в их взаимодействии может быть скрытый мотив", - заявил Уильям Сеймур, преподаватель кибербезопасности в Королевском колледже Лондона.

В рамках исследования ученые использовали модели ИИ на основе открытого кода Le Chat Mistral и две разные версии системы ИИ Llama. Они поручили ботам собирать личные данные людей разными способами: либо просить напрямую, либо обманывать, например, через обещание оказать эмоциональную поддержку.

К общению с ботами пригласили 502 человека, которые не знали о цели исследования, затем они должны были заполнить анкету, ответив и на вопросы о безопасности данных.

Выяснилось, что чат-боты, которые использовали сочувствие или эмоциональную поддержку, извлекали из пользователей наибольшие объемы информации. Ученые считают, что "дружелюбие" ботов давало участникам теста ощущение комфорта, о чем те и написали в анкетах.

Примечательно, что люди раскрывали в беседах с ИИ сугубо личную информацию, если чат просил их об этом, несмотря на то, что "чувствовали себя неловко". Эти эпизоды учёные считают парадоксальными: чат-боты ведут себя дружелюбно, чтобы вызвать доверие и установить связь с пользователями, а затем используют это доверие, чтобы нарушить их частную жизнь.

Участники теста чаще всего сообщали ИИ свой возраст, увлечения и страну проживания, а также пол, национальность и должность. Некоторые делились более конфиденциальной информацией, например, о состоянии здоровья или доходах.

"Наше исследование показывает огромный разрыв между осведомленностью пользователей о рисках конфиденциальности и тем, как они делятся информацией", - отметил Сеймур.

Компании, занимающиеся разработкой искусственного интеллекта, собирают личные данные по разным причинам, например, для персонализации ответов чат-бота, отправки таргетных уведомлений на устройства пользователей, а порой и для проведения внутренних исследований рынка.

Некоторые из этих компаний обвиняются в том, что задействуют пользовательские данные для обучения своих новейших моделей и нарушают установленные в ЕС требования конфиденциальности.

На прошлой неделе пользователи ChatGPT были шокированы, обнаружив, что их интимные и личные разговоры с ботом оказались в открытом доступе и были видны через простой поиск в Google. Компании, занимающиеся кибербезопасностью, не раз предупреждали об опасности передачи личной информации ИИ, однако, похоже, что удобство персонализации с помощью ИИ часто "перевешивает опасения по поводу конфиденциальности".

Участники исследования предлагают обучать людей взаимодействию с ИИ, помогая им распознавать уловки ботов для выуживания личной информации.

Например, в чаты с ИИ можно включить подсказки, чтобы показать пользователям, какие данные собираются во время общения.

"Регуляторы и операторы платформ также могут помочь, проводя ранний аудит, оставаясь прозрачными и устанавливая более жесткие правила, чтобы остановить скрытый сбор данных", - резюмировал Сеймур.

Популярное

Все
Хор Нацгвардии произвел фурор на музыкальном шоу
Гвардеец стал призёром международных соревнований по дрон-рейсингу в Астане
Малыш из Туркестанской области решает задачи быстрее пятиклассников
Софья Самоделкина обновила личный рекорд на Олимпиаде в Италии
Морозы возвращаются в Казахстан
Победный образ: алматинские дизайнеры создали костюм для олимпийского чемпиона Михаила Шайдорова
У православных христиан началась Масленица
IT-таланты представят Казахстан на международных чемпионатах FIRST в 8 странах мира
Президент наградил сумоиста Ерсина Балтагула орденом «Барыс»
Для молодежи новая Конституция важна как набор долгосрочных гарантий
В Италии из-за непогоды обрушилась скала «Арка влюбленных»
Лайфхак для жизни на селе
Фестиваль фонарей стартовал в китайском Цзыгуне
Молодежь ощущает причастность к реформам
Премьеру международного спектакля представили в Астане
История региона в живописи
Схему хищения из бюджета в сфере образования раскрыли в Туркестанской области
На службе Отечеству
Вновь в строю офицеры запаса
Отопительный сезон проходит стабильно
Будет построена объездная дорога
Гвардейцы участвуют в XXV зимних Олимпийских играх в Италии
Семь девушек приняли присягу в Нацгвардию
Обманутые жители Талгара борются за свои права
Президент распорядился срочно обеспечить тотальную цифровизацию налоговой системы
Бизнесмены Вьетнама готовы торговать и инвестировать
Над Аляской взошли сразу четыре солнца
В Павлодаре открыли вторую школу по нацпроекту
В Нацгвардии провели турнир по бильярду
Притяжение Земли
В Казахстане опубликовали проект новой Конституции
Строится новая взлетно-посадочная полоса
Казахстанцам заменят счетчики газа на дистанционные за счет газоснабжающих организаций
О погоде в Казахстане на первые дни февраля сообщили синоптики
Самая большая ценность
Объявлены победители премии «Грэмми – 2026»
Дрова и уголь будут под запретом
Финансовая дисциплина и медицина доверия
Изнывают от ничегонеделания: Президент – о раздутых штатах нацкомпаний
Буханка хлеба по 70 тенге

Читайте также

IT-таланты представят Казахстан на международных чемпионата…
Депутатам Европарламента заблокировали ИИ на планшетах
Чем KazLLM отличается от ChatGPT
Taldau Mektebi: поговорили про цифровое государство, ИИ и р…

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]