⠀
OpenAI чесно попереджає: ваша інформація буде використана для машинного навчання. Тож розумно сприймати все, що ви відправляєте в чат, як потенційно публічну інформацію. Тому Forbes назвав 5 речей, про які не варто розповідати ChatGPT.
⠀

Просити АІ розповісти, як зламати банкомат, вкрасти пароль у сусіда або маніпулювати кимось - це не просто аморально, а й може мати наслідки. Більшість АІ-сервісів відстежують подібні дії і, в разі серйозних порушень, можуть передавати дані в правоохоронні органи.
⠀

ChatGPT не створений для того, щоб ви йому розповідали, як увійти у ваш банківський акаунт. Навіть якщо ШІ підключений до сторонніх сервісів - не вводьте паролі. В історії вже були випадки, коли особиста інформація одного користувача несподівано спливала у відповідях іншим.
⠀

Той самий принцип поширюється і на ваші банківські дані. Ні номери карток, ні CVC, ні номери рахунків або документи, нічого з цього не варто довіряти чат-боту.
⠀
На відміну від платіжних платформ, у ChatGPT немає шифрування, двофакторного захисту або гарантії видалення даних після обробки. Уся ця інформація може бути вразливою для злому, фішингу або витоків.
⠀

Робочі звіти, клієнтські бази, комерційні пропозиції і, особливо, внутрішні документи компаній - усе це має залишатися поза публічним ШІ. Приклад Samsung, де співробітники завантажили в ChatGPT конфіденційні матеріали.
⠀

Навіть якщо ви просто хочете уточнити симптоми, пам'ятайте: у ШІ немає медичної освіти, зате є здатність запам'ятовувати, агрегувати й обробляти інформацію з різних чатів. А отже, ваші записи можуть потім спливти в іншому контексті.
⠀
Для бізнесу, що працює з медичними даними, це може закінчитися штрафами за порушення законів про конфіденційність. А для звичайних користувачів - просто втратою особистих кордонів.
⠀

Немає коментарів:
Дописати коментар