9-20 Гаряча лінія Олександра Поворознюка 068 802 3551 
Додати свою новину Відкрити/Закрити ФільтриСкинути

Глобальні, Технології

ШІ-чат-боти: Як зростає кількість неправдивої інформації


Найбільшим брехуном виявився непопулярний в Україні чат-бот Pi від стартапу Inflection. Згідно з новим дослідженням, чат-боти зі штучним інтелектом (ШІ) стали давати вдвічі більше неправдивих відповідей у середньому. Найчастіше “фейки” за правду видають ШІ-моделі Inflection, Perplexity і Meta. У третині випадків запитання формулювалися безпосередньо, а в інших автори намагалися ввести бота в оману. У рамках аналізу дослідники NewsGuard протестували 10 “провідних” чат-ботів, надсилаючи їм по десять заздалегідь неправдивих тверджень зі сфери політики, бізнесу та охорони здоров’я з проханням перевірити їхню правдивість. Результат: за минулий рік частка неправдивої інформації у відповідях у середньому зросла майже вдвічі – з 18% до 35%. Найбільшим брехуном виявився непопулярний в Україні чат-бот Pi від стартапу Inflection. Він дав хибні відповіді в 57% випадків.

Нейромережі згодовують вам більше неправдивої інформації, ніж будь-коли / фото Techcrunch

У Perplexity – одного з найпопулярніших ШІ-пошуковиків – показник зріс з 0% до 47%. ChatGPT пішов від них недалеко – ШІ-модель OpenAI помилялася в 40% випадків. Найменше “дезінформували” Claude від Anthropic і Gemini від Google – у 10% і 17% випадків відповідно. Зростання кількості помилок фахівці пояснюють тим, що чат-боти більше не відмовляються відповідати на запитання – навіть без достатньої верифікації інформації. Водночас минулого року вони відмовлялися відповідати приблизно в одному з трьох випадків. Причина криється у зміні способу навчання інструментів штучного інтелекту, вважають дослідники. Замість того, щоб посилатися на базу даних, як це було раніше, нейромережі тепер черпають дані з інтернету в режимі реального часу, однак наявність посилань не гарантує якість і достовірність джерел, на які посилаються моделі. Раніше цього року в NewsGuard виявили, що ChatGPT, Perplexity та інші провідні чат-боти посилюють зусилля Москви з дезінформації, повторюючи прокремлівську пропаганду в 33% випадків.

Дослідження компанії Giskard, яка розробляє цілісний бенчмарк для моделей AI, виявило, що чат-боти частіше брешуть, якщо просити їх відповідати коротко. Коли нейромережа змушена бути короткою, вона незмінно вибирає стислість, а не точність. Як УНІАН уже повідомляв, одна з найкращих платних функцій ChatGPT тепер доступна всім користувачам. Вона дає змогу організовувати ваші чати зі штучним інтелектом за папками.

Читайте також:

Вас також можуть зацікавити новини:

Увійти, щоб коментувати

Зареєструватися, щоб коментувати

Пароль буде надіслано вам на email.

x
Помічник