Важливість чесності в генеративному штучному інтелекті
Гаряча тема: Компанії, що надають інструменти генеративного штучного інтелекту, зазвичай попереджають користувачів про можливу неточність створеного контенту. LinkedIn від Microsoft має подібне застереження, але йде далі, попереджаючи, що користувачі, які поширюють таку дезінформацію, нестимуть за це відповідальність.
Оновлення угоди з користувачами: Відповідальність за контент
Нещодавно Microsoft оновила свою Угоду про надання послуг, додавши застереження, що її асистивний штучний інтелект не призначений для заміни професійних консультацій і не є точним джерелом інформації.
Зміни в угоді LinkedIn: Генерація контенту і її наслідки
Як повідомляє The Reg, LinkedIn також оновлює свою Угоду користувача, додаючи аналогічне застереження. В розділі, який набирає чинності 20 листопада 2024 року, платформа заявляє, що користувачі можуть взаємодіяти з функціями автоматизації генерації контенту. Цей контент може бути неточним, неповним, запізнілим, вводити в оману або бути непридатним для їхніх цілей.
Відповідальність користувачів: Редагування та перевірка контенту
Це застереження виглядає стандартним, проте наступна частина є досить цікавою. LinkedIn стверджує, що користувачі повинні перевіряти та редагувати контент, створений її штучним інтелектом, перед тим як ділитися ним з іншими. Вони несуть відповідальність за забезпечення того, щоб цей контент відповідав Професійним стандартам спільноти платформи, включаючи заборону на поширення неправдивої інформації.
Парадокс політики LinkedIn: Власні інструменти і політика щодо дезінформації
Виглядає дещо гіпокритично, що LinkedIn строго контролює політику проти поширення фальшивого або неавтентичного контенту, який можуть генерувати власні інструменти. Повторні порушники політики можуть бути покарані за допомогою тимчасових блокувань акаунтів або навіть їх повного припинення.
Позиція LinkedIn щодо відповідальності користувачів за контент, створений AI
The Reg звернувся до LinkedIn із запитанням про те, чи має намір платформа нести відповідальність за контент, створений її власними інструментами, якщо він порушує політику компанії. У відповіді, яка не зовсім відповідає на запитання, представник LinkedIn зазначив, що надає можливість користувачам відмовитись від використання своїх даних для навчання AI моделей контент-генерації в країнах, де це можливо.
Забезпечення вибору: Як дані користувачів використовуються для навчання AI
«Ми завжди використовували якусь форму автоматизації в продуктах LinkedIn, і завжди були чіткими щодо того, що користувачі мають право вибору щодо використання своїх даних», – додав представник. «Сьогодні багато людей шукають допомогу у складанні першого проекту резюме, написанні підсумку профілю на LinkedIn, а також в створенні повідомлень для рекрутерів, щоб отримати наступну кар’єрну можливість. В кінцевому підсумку, люди хочуть отримати перевагу у своїй кар’єрі, і що роблять наші сервіси GenAI – це допомагають їм у цьому.»
Непередбачувані зміни: Проблеми із використанням даних користувачів для навчання AI
Інша цікава частина цього всього полягає в тому, що LinkedIn оголосив про зміни 18 вересня, коли також стало відомо, що платформа почала використовувати контент, згенерований користувачами, для навчання своїх AI моделей без попереднього погодження користувачів. Реакція користувачів та розслідування змусили LinkedIn згодом заявити, що він не дозволятиме навчання AI на даних користувачів із Європейського економічного простору, Швейцарії та Великобританії до подальших повідомлень. Тим часом користувачі з США повинні самостійно відмовитися від цього.