Posted in

Протест проти штучного інтелекту: американець голодує

eeacdadcdcdbbf.jpg
eeacdadcdcdbbf.jpg

Американець Гвідо Райхштадтер вже понад два тижні відмовляється від їжі, протестуючи проти створення систем штучного інтелекту людського рівня. Він вимагає від компаній призупинити розробку так званого загального штучного інтелекту, вбачаючи у цьому серйозну загрозу для майбутнього людства.

Як повідомляє The Verge, Райхштадтер розпочав свій протест 31 серпня. Щодня, з 2 вересня, він приходить до штаб-квартири стартапу Anthropic у Сан-Франциско і проводить там кілька годин із плакатом, на якому написано заклик “зупинити гонку до штучного інтелекту загального рівня”. За словами протестувальника, він почувається відносно добре, хоча рухається повільніше через голодування.

Чому Райхштадтер протестує?

Райхштадтер називає розробку AGI (Artificial General Intelligence) “божевіллям і надзвичайним ризиком”, адже компанії, на його думку, прагнуть створити надрозумні системи без достатніх гарантій безпеки. Він звернув увагу на інтерв’ю керівника Anthropic Даріо Амодея, який визнав, що ймовірність катастрофічних наслідків від таких технологій може сягати 10–25%. На думку активіста, це підтверджує безвідповідальність галузі.

“Я намагаюся виконати свій обов’язок як громадянин, який дбає про життя та майбутнє своїх співвітчизників”, – сказав Райхштадтер, зазначивши, що має двох дітей. Він також закликав інженерів і науковців у сфері штучного інтелекту діяти як люди, а не як інструменти корпорацій, адже вони несуть найбільшу відповідальність за потенційно небезпечні технології.

Які наслідки протесту?

Anthropic не надала коментарів щодо акції. Водночас протест активіста надихнув інших. У Лондоні біля офісу Google DeepMind розпочали голодування ще двоє людей, а в Індії до акції приєднався учасник, який транслює її онлайн. Один із лондонських протестувальників, Майкл Трацці, голодував тиждень, але був змушений зупинитися з медичних причин. Втім, інший активіст, Денис Шеремет, продовжує акцію вже десятий день.

Трацці у листі до керівника DeepMind Деміса Хассабіса закликав компанію публічно погодитися на зупинку розробки передових моделей ШІ, якщо всі інші гравці ринку зроблять те саме. Він вважає, що тільки міжнародна координація може запобігти небезпечним наслідкам.

Компанія Google DeepMind у відповідь наголосила, що безпека та відповідальність залишаються пріоритетами під час створення нових технологій. Райхштадтер і Трацці кажуть, що ще не отримали особистих відповідей від керівників Anthropic чи DeepMind. Попри це вони переконані: їхні дії допоможуть привернути увагу до ризиків, які несе безконтрольна гонка у сфері штучного інтелекту.

“Світ опинився у глобальній гонці до катастрофи. Якщо є вихід, він у готовності визнати, що ми не контролюємо ситуацію, і попросити допомоги”, – наголосив Райхштадтер.

Як повідомляв Фокус, компанія зі штучного інтелекту Anthropic запропонувала новий підхід до стримування небажаних дій з боку моделей штучного інтелекту (ШІ), таких як ChatGPT, Claude, Gemini та DeepSeek.

Фокус також писав, що модель штучного інтелекту (ШІ) Claude Opus 4 від компанії Anthropic під час тестування продемонструвала, що може вдаватися до шантажу.