Глобальні, Світові новини
ШІ та Люди: Дослідження виявляє когнітивні упередження
Вчені встановили, що ШІ може приймати рішення так само ірраціонально, як і люди.
Люди та моделі штучного інтелекту мають різні підходи до “розмірковування”. Нещодавнє дослідження виявило певну схожість у їхньому мисленні, про що пише Live Science.
Дослідники з’ясували, що ШІ може приймати рішення ірраціонально, подібно до людей. У своєму дослідженні вчені вивчили поведінку моделей OpenAI GPT-3.5 та GPT-4, зіставляючи їх з 18 відомими когнітивними упередженнями, властивими людям.
З’ясувалося, що в майже половині випадків ШІ демонстрував багато людських упереджень під час прийняття рішень. Нейромережі не застраховані від людських помилок, що підкреслює важливість розуміння їхніх обмежень.
“Менеджери отримають найбільшу користь, використовуючи ці інструменти для вирішення проблем з чіткими, стандартизованими рішеннями. Якщо ж ви використовуєте їх для суб’єктивних рішень або рішень, заснованих на особистих вподобаннях, будьте обережні”, – зазначив Ян Чен, провідний автор дослідження, доцент кафедри управління операціями в бізнес-школі Ivey, у своєму коментарі.
Вчені ставили ШІ гіпотетичні питання, взяті з психології, в контексті комерційного застосування, наприклад, в управлінні запасами або переговорах з постачальниками. Вони намагалися зрозуміти, чи буде ШІ повторювати людські упередження і чи проявлятиме їх у різних бізнес-сферах.
Результати показали, що GPT-4 перевершив GPT-3.5 у вирішенні завдань з чіткими математичними рішеннями. Він продемонстрував менше помилок у ймовірнісних і логічних сценаріях. Однак у суб’єктивних ситуаціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто виявляв ірраціональні переваги, характерні для людей.
“GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди”, – йдеться в дослідженні.
Дослідники відзначили, що поведінка чат-ботів залишалася стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи як операційні бізнес-процеси. Вони дійшли висновку, що продемонстровані упередження не просто є результатом навчання, а є частиною того, як ШІ “міркує”.
Під час дослідження, GPT-4 іноді посилював помилки, подібні до людських, наголосили вчені.
“У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки “гарячої руки” (очікування закономірностей у випадковості), ніж GPT 3.5″, – розповіли дослідники.
Вчені створили компанію, в якій працюють тільки АІ-співробітники – як пройшов експеримент
Раніше вчені з Університету Карнегі-Меллона створили фальшиву компанію TheAgentCompany, яка займається розробкою програмного забезпечення. Усі її співробітники – моделі ШІ, призначені для самостійного виконання завдань. Результати експерименту були досить хаотичними.
Зазначається, що найкращі результати показала модель Claude 3.5 Sonnet від Anthropic. Проте вона впоралася лише з 24% поставлених задач. Для виконання одного завдання моделям доводилося робити близько 30 кроків.
Модель Gemini 2.0 Flash від Google в середньому робила 40 кроків на одне виконане завдання. Тільки 11,4% з них були виконані успішно.


