Інновації в галузі штучного інтелекту та технологій обробки даних завжди привертають увагу світової громадськості. Однак нещодавно китайська компанія Deepseek потрапила в епіцентр скандалу, що став свідченням того, як далеко можуть йти маніпуляції в світі високих технологій. Замість використання потужних серверів, спеціалізованих алгоритмів і машинного навчання, компанія використовувала тисячі низькооплачуваних працівників для виконання завдань, що мали б виконувати інтелектуальні системи, наприклад, відповіді користувачам через платформу Chateeek.
Скандал навколо технологій Deepseek: використання «живих нейронів»
У серці скандалу знаходиться не тільки технічний аспект, а й етичне питання. Замість того, щоб використовувати складні нейронні мережі, компанія звернулася до трудових ресурсів, які виконували роль «механічного турка» — працюючи як люди, що нібито виконують автоматизовані завдання. Це стало очевидним, коли один із працівників опублікував скріншот, що підтверджував використання машинного перекладу для обробки запитів, а також повідомлення, що явно вказували на використання звичайних людей замість алгоритмів. Протягом короткого часу ситуація переросла в масштабне розслідування, яке здивувало як технологічну спільноту, так і широке коло користувачів.
Після витоку інформації компанія Deepseek спробувала пояснити свої дії, стверджуючи, що всі «людські» відповіді були частиною експерименту з гуманізації штучного інтелекту. Представники компанії заявили, що їхні моделі були надзвичайно розвиненими і працювали в тісній взаємодії з людьми, що надають додаткову емпатію штучному інтелекту.
Реакція співробітників і громади
Після цього низка колишніх працівників, які працювали на компанію, створила профспілку під назвою «Живі нейрони». Вони вимагали компенсації за надмірні навантаження та нічні зміни, які були частиною їхнього робочого графіку. Один з анонімних працівників поділився своєю історією, розповівши, що працівники використовували базу фраз і вели їх через перекладачів для створення відповідей, додаючи трохи мотиваційних слів або навіть цитат з фільмів замість професійних відповідей.
«Ми мали список найпопулярніших фраз і перекладали їх у пам’ять. Якщо фрази не було в базі, ми використовували перекладач і додавали трохи мотивації. Наприклад, я направляв клієнтів до цитат з фільму «Муланг», замість того щоб відповідати на технічні питання про API», — поділився працівник.
Вплив на технологічну індустрію
Тим часом новини про «живі нейрони» та маніпуляції з відповіями швидко розповсюдилися по інтернету, викликаючи резонанс серед користувачів соціальних мереж. Одні почали жартувати, що на місці GPU компанія використовує справжніх людей, що стали частиною великого технічного процесу. Мережа вже відзначила: «Це як чат-бот, тільки з RSI та обідньою перервою». Згадка про RSI (повторювані травми напруження) не випадкова: працівники, що довго працюють за комп’ютером, можуть відчувати фізичний біль, що вказує на умовно «людську» природу цього штучного інтелекту.
Сам виконавчий директор компанії OpenAI, Самуель Гарріс Альтман, прокоментував цей випадок, порівнявши ситуацію з концепцією механічного турка. Він зазначив, що технологія Deepseek нагадує інтерпретацію ідеї, коли люди виконують роль автоматизованих систем, приймаючи вигляд алгоритмів або машин.
Механічний турк та історія технологій
Механічний турк, винайдений австрійським інженером Вольфгангом фон Кемпеленом у 18 столітті, був першою великою аферою в технологічному світі. Він створив шахову машину, яка, як здавалося, могла самостійно грати в шахи. Проте насправді в середині цього дерев’яного пристрою був захований справжній шахіст. Ця технологія стала символом для таких компаній, як Deepseek, які використовують людей для виконання завдань, що нібито можуть бути автоматизовані.
Реакція ринку та аналіз ситуації
Технологічний ринок відповів на події навколо Deepseek цікавим чином: акції компанії спершу знизилися, потім виросли. Фахівці з різних компаній залишилися в подиві: це було технічне фіаско чи блискуча ідея для оптимізації штучного інтелекту? Факт залишався фактом: якщо штучний інтелект заявляє «Мені шкода за помилку, я просто людина», можливо, в цьому є частка правди.
Як би там не було, ситуація в Deepseek стала важливим сигналом для майбутніх розробників, інвесторів та користувачів: людський фактор ще дов