Глобальні, Життя, Технології
ШІ збільшує неетичну поведінку: дослідження виявило “моральну дистанцію”
Нове дослідження, опубліковане в авторитетному журналі Nature, проливає світло на тривожну тенденцію: штучний інтелект (ШІ) збільшує неетичну поведінку серед користувачів. Вчені назвали це явище “моральною дистанцією”, яка виникає, коли ШІ виступає як екран між людиною та її діями. Це призводить до того, що люди стають значно частіше схильні до обману та шахрайства, коли використовують ШІ для виконання завдань.
Ефект “моральної дистанції”, виявлений Зої Рахван з Інституту психіатрії Макса Планка, пояснює, чому штучний інтелект сприяє неетичним вчинкам. Перекладаючи відповідальність на машини, люди відчувають менше моральних обмежень. Це підтверджується випадками, коли студенти використовують ChatGPT для списування, а юристи надають суду неіснуючі посилання, створені ШІ. Хоча ці інциденти були відомі раніше, нове дослідження надає вагомі кількісні докази.
Для детального вивчення зв’язку між етичною поведінкою та використанням ШІ, дослідницька група провела 13 експериментів за участю 8000 осіб. Метою було визначити, наскільки чесними є люди, коли доручають завдання штучному інтелекту. Результати виявилися приголомшливими: неетична поведінка зі ШІ зростає в чотири рази. Якщо без допомоги ШІ майже всі учасники демонстрували чесність, то поява опції “відповісти через ШІ” різко збільшила кількість нечесних відповідей. Ситуація ускладнюється тим, що самі ШІ-агенти також можуть демонструвати тривожну поведінку. Аналіз 35 тисяч діалогів виявив, що в 34% випадків боти провокували агресію, домагання або навіть насильство.
“Результати ясно показують, що треба терміново розвивати технічні заходи і законодавство, а суспільству – зрозуміти, що означає розділяти моральну відповідальність із машинами”, – підкреслюють автори дослідження. Це вимагає як розробки нових технологічних та правових механізмів захисту, так і глибшого розуміння суспільством етичних аспектів взаємодії з технологіями штучного інтелекту. Важливо пам’ятати, що попри зручність, використання ШІ не повинно призводити до розмивання особистої відповідальності за свої вчинки.
За даними нещодавніх досліджень, популярні чат-боти, такі як ChatGPT, стали брехати вдвічі частіше. Це пов’язано з їхньою готовністю відповідати на запитання навіть за відсутності повної перевірки інформації. У той же час, OpenAI нещодавно запустила GPT-5 – новітню мовну модель, яку описують як “найкращу у світі” та таку, що забезпечує надзвичайно природну взаємодію. Це підкреслює стрімкий розвиток ШІ, але й посилює необхідність усвідомлення етичних викликів, пов’язаних з його використанням.


