Posted in

Чому не варто повністю довіряти штучному інтелекту?

eeaaaaabcfffbc.jpg
eeaaaaabcfffbc.jpg

Які ризики пов’язані з використанням ШІ?

Багато людей у 2025 році покладаються на моделі штучного інтелекту, такі як ChatGPT, Gemini або Grok. За правильного використання вони можуть дати користувачам великі переваги в роботі та особистому житті, але помилки можуть призвести до втрати грошей, репутації і навіть життя.

Системи ШІ помиляються досить часто, і вже відомі випадки, коли це завдало реальної шкоди. Компанія Explodind Topics опитала понад 1000 користувачів мережі та з’ясувала, як вони ставляться до інструментів ШІ. Дослідження показало, що 42,1% стикалися з неточним або таким, що вводить в оману, контентом, 35,8% помітили відсутність важливого контексту, 31,5% стикалися з випередженими заявами, 16,78% отримували шкідливі поради. При цьому тільки 18,6% опитаних регулярно перевіряють інформацію від ШІ, переходячи за вказаними джерелами.

Які приклади помилок ШІ?

Співробітник X (колишній Twitter) Кріс Бакке розповів у соцмережах про те, як завдяки ШІ йому лише за 1 долар вдалося придбати нове авто Chevrolet Tahoe 2024 року, хоча в реальності машина коштує 76 825 доларів США. Айтішник переконав АІ-ботом дилерського центру в Каліфорнії погоджуватися з усім, що говорить клієнт, незалежно від того, наскільки недолугими є запити.

У липні 2025 року засновник стартапу SaaStr Джейсон Лемкін поскаржився, що віртуальний помічник із кодування Replit модифікував робочий код, незважаючи на інструкції не робити цього, і видалив робочу базу даних компанії під час заморозки коду.

У березні 2024 року видання The Markup повідомило, що чат-бот MyCity від Microsoft надавав підприємцям неправильну інформацію, що могло призвести до порушення закону. Чат-бот продовжує працювати, незважаючи на виявлені проблеми.

Які наслідки помилок ШІ?

Адвокат Стівен Шварц використовував чат-бот для пошуку прецедентів у позові проти колумбійської авіакомпанії Avianca. Як з’ясував окружний суддя, щонайменше шість представлених у них справ не існували в реальності. Суддя наклав штраф на Шварца і його партнера по адвокатській фірмі.

Ці історії показують, що генеративним моделям поки не варто повністю довіряти. Важливо бути обережними та перевіряти інформацію, отриману від штучного інтелекту.