Авторизація
  • 00:14 – Apple дозволила користувачам власноруч легалізувати замінені компоненти 
  • 00:02 – Повертається гра, яка підвищувала ціну iPhone до $99 тис. 
  • 01:00 – Три крихітних ядерних реактори для дата-центра: Oracle будує таку систему споживанням 1 ГВт 
  • 00:11 – Google повертає можливість зазирнути в минуле інтернет-сторінок 
  • 00:09 – Cмартфон Huawei Mate XT Ultimate: 10,2-дюймів, товщина 3,6 мм та ціна $3400 

 

Штучний інтелект в поліції, медицині та рекламі може бути небезпечним – попереджують європейські правозахисники

Штучний інтелект в поліції, медицині та рекламі може бути небезпечним – попереджують європейські правозахисники

Штучний інтелект використовується дедалі більше і його можливостями все частіше зловживають. Правозахисники хвилюються про порушення фундаментальних прав людини та приватності з поширенням таких технологій. Агентство фундаментальних прав (Agency for Fundamental Rights, FRA) закликало політиків розробили правила, які б забезпечили захист фундаментальних прав людини.

Один з прикладів зловживання штучним інтелектом можуть надати авторитарні режими. Вони використовують технологію для масового та дискримінаційного стеження за населенням. Навіть мільярдера можуть забанити.



«Штучний інтелект не безгрішний, його роблять люди, а люди роблять помилки. Тому потрібно знати коли використовується штучний інтелект, як він працює та як боротися з автоматизованими рішеннями», – каже директор агентства Майкл О’Флаерті.

На думку експертів, правила використання штучного інтелекту повинні поважати всі фундаментальні права та мати запобіжники, які забезпечуватимуть це. Також вони повинні включати гарантії того, що люди можуть оскаржувати прийняті алгоритмами рішення. Ще компанії повинні бути зобов’язані пояснювати як їхні системи приймають рішення.

Експерти також закликають проводити більше досліджень, щоб з’ясувати потенційно дискримінаційні ефекти від масового використання штучного інтелекту.

 

Підписуйтесь на канал в Telegram та читайте нас у Facebook. Завжди цікаві та актуальні новини!

Залишити коментар
Підписуйтесь на нас