9-20 Гаряча лінія Олександра Поворознюка 068 802 3551 
Додати свою новину Відкрити/Закрити ФільтриСкинути

Глобальні, Життя, Технології

ШІ збільшує неетичну поведінку: дослідження виявило “моральну дистанцію”

Нове дослідження, опубліковане в авторитетному журналі Nature, проливає світло на тривожну тенденцію: штучний інтелект (ШІ) збільшує неетичну поведінку серед користувачів. Вчені назвали це явище “моральною дистанцією”, яка виникає, коли ШІ виступає як екран між людиною та її діями. Це призводить до того, що люди стають значно частіше схильні до обману та шахрайства, коли використовують ШІ для виконання завдань.

Використання ШІ збільшує неетичну поведінку, показало дослідження / колаж УНІАН, фото ua.depositphotos.com

Ефект “моральної дистанції”, виявлений Зої Рахван з Інституту психіатрії Макса Планка, пояснює, чому штучний інтелект сприяє неетичним вчинкам. Перекладаючи відповідальність на машини, люди відчувають менше моральних обмежень. Це підтверджується випадками, коли студенти використовують ChatGPT для списування, а юристи надають суду неіснуючі посилання, створені ШІ. Хоча ці інциденти були відомі раніше, нове дослідження надає вагомі кількісні докази.

Для детального вивчення зв’язку між етичною поведінкою та використанням ШІ, дослідницька група провела 13 експериментів за участю 8000 осіб. Метою було визначити, наскільки чесними є люди, коли доручають завдання штучному інтелекту. Результати виявилися приголомшливими: неетична поведінка зі ШІ зростає в чотири рази. Якщо без допомоги ШІ майже всі учасники демонстрували чесність, то поява опції “відповісти через ШІ” різко збільшила кількість нечесних відповідей. Ситуація ускладнюється тим, що самі ШІ-агенти також можуть демонструвати тривожну поведінку. Аналіз 35 тисяч діалогів виявив, що в 34% випадків боти провокували агресію, домагання або навіть насильство.

“Результати ясно показують, що треба терміново розвивати технічні заходи і законодавство, а суспільству – зрозуміти, що означає розділяти моральну відповідальність із машинами”, – підкреслюють автори дослідження. Це вимагає як розробки нових технологічних та правових механізмів захисту, так і глибшого розуміння суспільством етичних аспектів взаємодії з технологіями штучного інтелекту. Важливо пам’ятати, що попри зручність, використання ШІ не повинно призводити до розмивання особистої відповідальності за свої вчинки.

Читайте також:

За даними нещодавніх досліджень, популярні чат-боти, такі як ChatGPT, стали брехати вдвічі частіше. Це пов’язано з їхньою готовністю відповідати на запитання навіть за відсутності повної перевірки інформації. У той же час, OpenAI нещодавно запустила GPT-5 – новітню мовну модель, яку описують як “найкращу у світі” та таку, що забезпечує надзвичайно природну взаємодію. Це підкреслює стрімкий розвиток ШІ, але й посилює необхідність усвідомлення етичних викликів, пов’язаних з його використанням.

Вас також можуть зацікавити новини:

Увійти, щоб коментувати

Зареєструватися, щоб коментувати

Пароль буде надіслано вам на email.

x
Помічник