Безпека та ризики використання AI-моделей для навчання
AI-моделі та їх навчання: Розвиток нових та вдосконалених моделей штучного інтелекту потребує величезних обсягів даних. Боти постійно сканують Інтернет у пошуках цінної інформації для підживлення систем штучного інтелекту. Однак цей в основному не регульований процес може створювати серйозні ризики для безпеки, особливо при роботі з дуже чутливою інформацією.
Вразливості в популярних чат-ботах та вплив на безпеку даних
Популярні сервіси чат-ботів, такі як Copilot і ChatGPT, теоретично можуть бути використані для доступу до приватних репозиторіїв на GitHub, які їх власники налаштували як закриті. Згідно з даними ізраїльської компанії з безпеки Lasso, ця вразливість є реальним загрозою і зачіпає десятки тисяч організацій, розробників та великих технологічних компаній.
Lasso провела дослідження, виявивши, що контент їх власного репозиторію на GitHub був доступний через Copilot від Microsoft. Співзасновник компанії Офір Дрор розповів, що репозиторій був ненадовго відкритий для публічного доступу, і в цей час Bing проіндексував та зберіг дані. Після того як репозиторій було знову зроблено приватним, Copilot все ще мав доступ до даних і міг використовувати їх для генерування відповідей.
Потенційні наслідки для організацій та безпеки даних
Дрор пояснив: «Якби я просто шукав цю інформацію в Інтернеті, я б не знайшов її. Однак будь-хто в світі може задати правильне питання Copilot і отримати ці дані».

Реальні загрози для корпоративних даних
Lasso повідомила, що понад 16 000 організацій стали жертвами цієї AI-загрози для безпеки. Проблема зачепила також великі технологічні компанії, зокрема IBM, Google, PayPal, Tencent, Microsoft і Amazon Web Services. Хоча Amazon заперечив свою причетність, Lasso повідомила, що зазнала тиску з боку юридичної команди AWS для видалення згадок про компанію з результатів дослідження.
- Конфіденційні дані, збережені в приватних репозиторіях GitHub, стали доступні через Copilot.
- Кіберзлочинці та інші загрози можуть використовувати чат-боти для отримання доступу до інтелектуальної власності, корпоративних даних, ключів доступу та токенів безпеки.
- Lasso попередила компанії про можливу компрометацію їхніх безпекових даних та рекомендувала відновити або анулювати скомпрометовані облікові дані.
Реакція Microsoft та подальші кроки
Команда з безпеки з Ізраїлю сповістила Microsoft про цю вразливість у листопаді 2024 року. Однак компанія класифікувала проблему як «незначну», вважаючи кешування даних прийнятним поведінковим патерном. В грудні 2024 року Bing прибрав з індексу застарілі пошукові результати, пов’язані з впливом на дані. Проте, як попереджає Lasso, навіть після вимкнення кешування, Copilot все ще зберігає ці дані в своїй моделі штучного інтелекту.