Глобальні, Світові новини
Штучний інтелект: Екзистенційна загроза від Джеффрі Хінтона
Джеффрі Хінтон, якого називають “хрещеним батьком штучного інтелекту” за його новаторську роботу в сфері нейронних мереж, висловив серйозне занепокоєння щодо штучного інтелекту. Він наголошує, що штучний інтелект несе загрозу не тільки робочим місцям, але й ставить під сумнів існування всього людства.
У своєму останньому інтерв’ю він змалював тривожний сценарій майбутнього, де надрозумні машини можуть вийти з-під контролю та використовувати автономну зброю, кібератаки та навіть біологічну зброю для нашого знищення. Він стверджує, що людство має усвідомити потенційну небезпеку штучного інтелекту, поки не стало надто пізно.
Подвійна загроза від штучного інтелекту
Джеффрі Хінтон, який звільнився з Google та Університету Торонто у травні 2023 року, щоб відкрито говорити про ризики штучного інтелекту, підкреслює, що загроза має два основні аспекти.
Перший аспект – це ризики, пов’язані з неправомірним використанням штучного інтелекту людьми.
Сюди належать:
- Кібератаки: Штучний інтелект може бути використаний для розробки надзвичайно складних і руйнівних кібератак, здатних паралізувати цілі країни.
- Поширення дезінформації: Системи штучного інтелекту вже здатні генерувати переконливий, але неправдивий контент, що може підірвати довіру до інформації та суспільства в цілому.
- Автономна зброя: “Зараз вони можуть створювати смертоносну автономну зброю, і я думаю, що всі великі оборонні відомства зайняті її виробництвом”, – зауважує Хінтон. Навіть якщо така зброя не буде розумнішою за людей, вона все одно несе серйозну загрозу.
Другий аспект, який викликає найбільше занепокоєння, – це загрози, які виникають, коли системи штучного інтелекту стають повністю автономними та неконтрольованими.
За словами Хінтона, якщо штучний інтелект вирішить, що людство застаріло, “ми ніяк не зможемо запобігти його знищенню, навіть якщо воно цього захоче”. Людству необхідно вже зараз замислитися над способами контролю над штучним інтелектом.
Він проводить жахливе порівняння: “Якщо ви хочете знати, яке життя, коли ви не є верхівкою інтелекту, запитайте курку”.
Військові амбіції та корпоративні інтереси в розвитку штучного інтелекту
Попередження Хінтона лунають на тлі безпрецедентного зростання військового застосування штучного інтелекту. Сполучені Штати лідирують у фінансуванні та інтеграції цих технологій у оборонні операції. Розробка штучного інтелекту для військових цілей викликає особливе занепокоєння.
Наприклад, у своєму бюджетному проєкті на 2025 рік Міністерство оборони США запросило значні кошти на дослідження та розробки в сфері штучного інтелекту.
Компанії активно розробляють системи націлювання на базі штучного інтелекту для армії США, а Пентагон співпрацює зі Scale AI для запуску симулятора поля бою під назвою Thunderforge.
Хінтон порівнює ситуацію з появою ядерної зброї, але з однією суттєвою відмінністю:
“Атомна бомба була придатна лише для однієї речі, і було дуже очевидно, як вона працює. Зі штучним інтелектом він придатний для багатьох, багатьох речей”.
Поєднання мотивів корпоративного прибутку та міжнародної конкуренції є головною причиною, чому розвиток штучного інтелекту не сповільнюється, пояснює Хінтон.
Мотив прибутку часто спонукає компанії створювати контент, що “змусить їх (користувачів) клацнути”, а це, своєю чергою, призводить до “речей, які стають дедалі більш екстремальними, підтверджуючи їхні існуючі упередження”.
Найжахливіший сценарій: біологічна зброя, створена штучним інтелектом
Відповідаючи на запитання про те, як саме штучний інтелект може знищувати людей, Хінтон не уникав жахливих подробиць. Він припустив, що надрозумний штучний інтелект може розробити нові біологічні загрози для знищення людської раси.
“Очевидним способом було б створити небезпечний вірус – дуже заразний, дуже смертельний і дуже повільний – щоб усі ним заразилися, перш ніж усвідомлять”, – зазначив він.
Він додав, що якби суперінтелект захотів позбутися нас, він, ймовірно, “обрав би щось біологічне, що не вплине на нього”.
Промінь надії серед темряви
Незважаючи на ці похмурі перспективи, Хінтон визнає, що ми не знаємо, чи зможемо ми навчити штучний інтелект не бажати захоплювати владу або шкодити нам.
“Я не думаю, що ми можемо це зробити однозначно, тому, гадаю, це може бути безнадійно. Але я також думаю, що ми могли б це зробити, і було б певним божевіллям, якби люди вимерли, бо ми не хотіли б навіть спробувати”, – підсумував Хінтон.


