Авторизація
  • 00:14 – Apple дозволила користувачам власноруч легалізувати замінені компоненти 
  • 00:02 – Повертається гра, яка підвищувала ціну iPhone до $99 тис. 
  • 01:00 – Три крихітних ядерних реактори для дата-центра: Oracle будує таку систему споживанням 1 ГВт 
  • 00:11 – Google повертає можливість зазирнути в минуле інтернет-сторінок 
  • 00:09 – Cмартфон Huawei Mate XT Ultimate: 10,2-дюймів, товщина 3,6 мм та ціна $3400 

 

Їм платять за навчання штучного інтелекту, а вони передають свою роботу штучному інтелекту

Основа штучного інтелекту – це тисячі малокваліфікованих людей, які наче мурахи обробляють кожну одиницю інформації вручну, правильно позначаючи її для штучного інтелекту. Це нудна, небезпечна та малооплачувана робота. І нове дослідження показало, що значна частина людей, яким платять за навчання штучного інтелекту, передають цю роботу штучному інтелекту. Для людей це гарний вихід, але сучасний тупий штучний інтелект так стає ще тупішим.



Їм платять за навчання штучного інтелекту, а вони передають свою роботу штучному інтелекту



Команда дослідників зі Швейцарського федерального технологічного інституту (EPFL) найняла 44 людини на платформі Amazon Mechanical Turk для узагальнення 16 витягів із медичних наукових статей. Потім вони проаналізували свої відповіді за допомогою моделі штучного інтелекту, яку вони самі навчили, яка шукає контрольні сигнали вихідних даних ChatGPT, наприклад відсутність різноманітності у виборі слів. Вони також записали натискання клавіш працівників, щоб визначити, чи вони скопіювали та вставили свої відповіді, що свідчить про те, що вони генерували свої відповіді деінде.


Вчені підрахували, що десь від 33% до 46% працівників використовували такі моделі штучного інтелекту, як ChatGPT OpenAI. Цей відсоток, ймовірно, зросте ще вище, оскільки ChatGPT та інші системи штучного інтелекту стануть потужнішими та легкодоступними, за словами авторів дослідження.


«Я не думаю, що це кінець краудсорсингових платформ. Це просто змінює динаміку», – каже Роберт Вест, доцент EPFL, який є співавтором дослідження.




Використання даних, згенерованих штучним інтелектом, для навчання штучного інтелекту може внести нові помилки в і без того схильні до помилок моделі штучного інтелекту. Великі мовні моделі регулярно представляють неправдиву інформацію як факт. Якщо вони генерують неправильні результати, які самі використовуються для навчання інших моделей штучного інтелекту, помилки можуть посилюватися з часом, що ускладнює визначення їх походження, говорить Ілля Шумайлов, молодший науковий співробітник комп’ютерної науки в Оксфордському університеті, який не брав участі в проекті.


Простого вирішення проблеми немає. «Проблема в тому, що коли ви використовуєте штучні дані, ви отримуєте помилки через неправильне розуміння моделей і статистичні помилки, — каже він. – Вам потрібно переконатися, що ваші помилки не впливають на результат інших моделей, і немає простого способу зробити це».




Дослідження підкреслює необхідність нових способів перевірки того, чи були дані створені людьми чи штучним інтелектом. Це також підкреслює одну з проблем, пов’язаних із тенденцією технологічних компаній покладатися на малооплачуваних і малокваліфікованих співробітників для виконання життєво важливої роботи з упорядкування даних, що передаються в системи штучного інтелекту.


 

Підписуйтесь на канал в Telegram та читайте нас у Facebook. Завжди цікаві та актуальні новини!

Залишити коментар
Підписуйтесь на нас