Особисті дані в ChatGPT під загрозою

Особисті дані в ChatGPT під загрозою

СhatGPT та сервіси на його основі привабливі та корисні, але їх потенціал як каналів для шахрайства та агресивного збору даних величезний – і буде тільки зростати. Фактично, ваші дані ще ніколи не були у такій великій небезпеці.

Занепокоєння щодо зростаючих можливостей чат-ботів, навчених таких на великих мовних моделях, як OpenAI GPT-4, Google Bard та Microsoft Bing Chat, потрапляє до заголовків газет. Експерти попереджають про їхню здатність поширювати дезінформацію у грандіозних масштабах, а також про екзистенційну загрозу, яку їхня розробка становить для людства. І, начебто цього мало, з’явилася третя причина для занепокоєння — недавня заборона ChatGPT в Італії з міркувань конфіденційності.

Чат-боти можуть бути корисні для роботи та особистих завдань, але вони збирають величезну кількість даних. Штучний інтелект (ШІ) також створює численні ризики у сфері безпеки – наприклад, можливість використання ШІ злочинцями для більш переконливих і ефективних кібератак.

Чи правда, що чат-боти небезпечніші в плані конфіденційності, ніж пошукові системи?

Більшість людей знають про ризики конфіденційності, пов’язані з пошуковими системами типу Google, але, як вважають експерти, чат-боти ще більш вимогливі до даних. “Дружнє”, розмовне спілкування з ними спонукає людей видавати більше інформації, ніж вони запровадили б у пошукову систему. “Людиноподібний стиль може обеззброїти користувачів”, – попереджає Алі Вазірі, директор з правових питань у групі даних та конфіденційності юридичної фірми Lewis Silkin.

Щоразу, коли ви звертаєтеся за допомогою до чат-боту зі штучним інтелектом, системи ШІ створюють профіль вашої особистості.

Джейк Мур

Чат-боти зазвичай збирають текстову та голосову інформацію, інформацію про ваш пристрій, а також дані, які можуть розкрити ваше місцезнаходження – наприклад, вашу IP-адресу. Як і пошукові системи, чат-боти збирають дані про активність у соціальних мережах, деякі з цих даних можуть включати вашу адресу електронної пошти та номер телефону, заявляє доктор Люціан Тіпі, помічник декана Бірмінгемського міського університету.

Незважаючи на те, що компанії, що створюють ШІ ботів, стверджують, що ваші дані потрібні тільки для поліпшення якості послуг, дані також можуть використовуватися для реклами, що таргетується. Щоразу, коли ви звертаєтеся за допомогою до чат-боту зі штучним інтелектом, системи ШІ створюють профіль вашої особистості, стверджує Джейк Мур, радник з глобальної кібербезпеки в компанії ESET: “Ці дані аналізуються і можуть бути використані для таргетованої реклами”.

І це вже відбувається. Компанія Microsoft оголосила, що вивчає можливість додавання реклами до чату Bing. Нещодавно стало відомо, що співробітники Microsoft можуть читати розмови чат-ботів користувачів, і американська компанія оновила свою політику конфіденційності, щоби позначити в ній цей факт.

Хоча Google і OpenAI обіцяють не передавати інформацію третім особам, умови політики конфіденційності дозволяють використовувати дані в рекламних цілях.

Як використовувати чат-бот конфіденційно та безпечно?

Використовувати чат-боти конфіденційно і безпечно складно, але є способи обмежити обсяг даних, які вони збирають. Наприклад, непогано використовувати VPN, щоби приховати свою IP-адресу.

На даному етапі технологія надто нова і недосконала, щоб можна було вірити в її конфіденційність та безпеку, каже Вілл Річмонд-Когган, фахівець по даним, конфіденційності і ШІ в юридичній фірмі Freeths. Він вважає, що слід виявляти “значну обережність”, перш ніж ділитися будь-якими даними – особливо якщо ця інформація є конфіденційною або пов’язана з бізнесом.

Природа чат-бота означає, що він завжди розкриватиме інформацію про користувача, незалежно від того, як використовується сервіс, каже Москона: “Навіть якщо ви використовуєте чат-бота через анонімний аккаунт або VPN, контент, який ви надаєте, згодом може розкрити достатньо інформації, щоби вас ідентифікували чи відстежили”.

Як щодо використання чат-ботів для допомоги у вирішенні робочих завдань?

Чат-боти можуть бути корисними на роботі, але експерти радять діяти обережно, щоб не розголошувати надто багато інформації та не потрапити під дію нормативних актів, таких як оновлена ​​версія загального регламенту ЄС із захисту даних (GDPR). Саме з урахуванням цієї компанії, включаючи JP Morgan та Amazon, заборонили або обмежили використання ChatGPT своїми співробітниками.

Ризик настільки великий, що розробники самі радять утриматися від їхнього використання. “Ми не можемо видалити інформацію з вашої історії листування”, – йдеться у FAQ ChatGPT. “Будь ласка, не діліться в розмовах конфіденційною інформацією”.

Використання чат-ботів у ділових цілях “може бути нерозумним”, каже Москона. “Безкоштовна версія ChatGPT не дає чітких і однозначних гарантій того, як вона буде захищати безпеку чатів або конфіденційність даних, що вводяться і генеруються чат-ботом. Хоча політика конфіденційності і обіцяє захистити особисту інформацію, OpenAI дуже розпливчасто говорять про її безпеку.”

Microsoft стверджує, що Bing може допомогти у вирішенні робочих завдань, але заявляє й таке: “Ми не рекомендували б передавати конфіденційну інформацію компанії в будь-який споживчий сервіс”.

Якщо ви змушені користуватися чат-ботами в професії, експерти радять бути обережними. “Слідкуйте за політикою безпеки вашої компанії і ніколи не ділитесь конфіденційною або секретною інформацією”, – говорить Нік Ніколас, генеральний директор компанії Covelent, що спеціалізується на консультуванні з питань даних.

Як виявити шкідливі програми, електронні листи та інший шкідливий контент, створений ШІ?

У міру впровадження чат-ботів в інтернет та соціальні мережі зростає можливість стати жертвою шкідливого ПЗ або шкідливих електронних листів. Національний центр кібербезпеки Великобританії (NCSC) попередив про небезпеку чат-ботів зі штучним інтелектом, заявивши, що технологія, на якій вони працюють, може бути використана в кібератаках.

Генерувати електронні листи різними мовами тепер простіше простого. Ознаки шахрайства, такі як погана граматика, будуть менш очевидними.

Нік Ніколас

На думку експертів, ChatGPT та його конкуренти можуть дозволити зловмисникам створювати складніші фішингові електронні листи. Наприклад, генерувати електронні листи різними мовами буде простіше, тому такі ознаки шахрайських повідомлень, як погана граматика та орфографія, будуть менш очевидними. Однак хоча стиль мови може здатися бездоганним, сам текст за авторством чат-бот часто містить фактичні помилки або застарілу інформацію.

Враховуючи небезпеку шахрайства, експерти радять виявляти більшу пильність, ніж будь-коли під час переходу за посиланнями або завантаження файлів з невідомих джерел. Використовуйте програмне забезпечення безпеки та постійно оновлюйте його для захисту від шкідливих програм, радить Ніколас.

Сервіси з підтримкою штучного інтелекту швидко з’являються, і в міру їхнього розвитку ризики зростатимуть. Експерти кажуть, що такі сервіси, як ChatGPT, можуть бути використані для допомоги кіберзлочинцям у написанні шкідливих програм, і є побоювання, що конфіденційна інформація, яка вводиться до сервісів з підтримкою чату, може потрапити до Інтернету.

Інші форми генеративного ШІ – штучні інтелекти, здатні створювати контент у вигляді голосу та зображень – можуть дати злочинцям можливість створювати більш реалістичні deepfake відео, імітуючи, наприклад, співробітника банку, що запитує пароль.

“Найкращий захист від шкідливого ПЗ та ШІ, створеного злочинцями, – це пильність”, – каже Нік Ніколас.

Цей текст – переклад і адаптація англомовної статті: https://www.theguardian.com/technology/2023/apr/09/cybercrime-chatbot-privacy-security-helper-chatgpt-google-bard-microsoft-bing-chat

Оцініть статтю
Додати коментар