Китайський стартап DeepSeek опинився під пильною увагою італійських регуляторів після того, як його додаток був видалений з популярних платформ Apple App Store та Google Play. Причиною цього стало розслідування, яке ініціював італійський орган захисту даних Garante. Вивчення зосереджувалося на питаннях збору та обробки особистих даних користувачів компанією.
Регуляторне втручання Італії та вимоги до DeepSeek
Італійський регулятор, Garante, висловив стурбованість щодо політики збору даних компанії, вимагав чіткої інформації про те, які саме дані збираються, як вони використовуються та зберігаються. Одним із ключових питань стало те, чи зберігаються ці дані на серверах у Китаї, а також як компанія інформує своїх користувачів про процес обробки їхніх даних, зокрема у випадку використання технології WebCraePing.
Рішення щодо видалення додатку
Програмне забезпечення DeepSeek було видалено з магазинів додатків після того, як Garante звернувся з офіційним запитом до компанії. Однією з причин стало занепокоєння щодо невідповідності нормам захисту особистих даних, що є критично важливим аспектом в Італії, де законодавство про конфіденційність є надзвичайно суворим. У зв’язку з цим, DeepSeek вимагалося надати роз’яснення до 17 лютого, в іншому випадку компанія може зіткнутися з серйозними юридичними наслідками, такими як штрафи або обмеження на діяльність на території Італії.
Інтернаціональна проблема: Китайський штучний інтелект і питання національної безпеки
Попри те, що DeepSeek швидко здобував популярність завдяки запуску конкурентоспроможних AI-асистентів, які конкурують з такими програмами, як ChatGPT від OpenAI, його діяльність також викликала занепокоєння в інших країнах. Особливо серйозно це питання розглядається в Сполучених Штатах, де китайський штучний інтелект є об’єктом пильної уваги через можливі загрози національній безпеці. Влада США побоюється, що технології, розроблені китайськими компаніями, можуть бути використані для збору інформації або інших шкідливих дій.
Конфлікт між OpenAI та DeepSeek
Додатковим чинником, який ще більше ускладнив ситуацію для DeepSeek, стало виявлення OpenAI фактів використання їхніх моделей для навчання власної технології конкурента. Цей процес, відомий як «Destillation», полягає у використанні результатів роботи більших моделей штучного інтелекту для тренування менших, більш ефективних моделей. Хоча це звична практика в розробці ШІ, OpenAI стверджує, що DeepSeek переступив межу, використовуючи цю техніку для створення власної конкурентної моделі. Виникає питання: чи порушує така практика авторські права та інші регулювання?
Подальші дії та наслідки для DeepSeek
До вирішення цього питання ще далеко. Італійська влада має намір отримати чіткі відповіді від компанії DeepSeek до 17 лютого поточного року. Якщо компанія не надасть необхідних документів та пояснень щодо обробки особистих даних, це може призвести до серйозних санкцій. Крім того, міжнародні санкції, пов’язані з використанням китайських технологій, можуть спричинити додаткові проблеми для стартапу. Для компанії важливо вчасно виправити ситуацію, щоб уникнути штрафів та обмежень, які можуть поставити під сумнів її подальшу діяльність на європейському ринку.
Насправді ситуація з DeepSeek показує загальну тенденцію на ринку технологій, де безпека та конфіденційність даних стають все більш важливими аспектами. Уряди по всьому світу починають приділяти значну увагу тим компаніям, які можуть бути джерелами потенційних загроз для користувачів. У світлі цих подій, важливість відповідального підходу до збору та обробки персональних даних стає ще більш очевидною.
Джерело: Гізмочіна