Posted in

OpenAI змінює підхід до розвитку ChatGPT

bcaefedabcdd.jpg
bcaefedabcdd.jpg

Які зміни чекають на ChatGPT?

Компанія OpenAI обрала новий шлях розвитку ChatGPT. Окрім тестування ефективності штучного інтелекту в різних завданнях, компанія планує впроваджувати інструменти мислення, які роблять “особистість” чат-бота більш людяною. На цю особливість у публіки є запит.

Команди всередині OpenAI реорганізувалися з цією метою. Відділ Model Behavior, який відповідав за поведінку і характер ChatGPT, об’єднали з групою Post Training, що займається доопрацюванням моделей. Це означає, що “персоналія” ШІ стає не другорядною, а однією з головних характеристик, нарівні з точністю і продуктивністю, пише TechCrunch.

Чому OpenAI реагує на критику?

Цей крок, ймовірно, став реакцією на недавні скандали в мережі. Користувачі були незадоволені “холодним” і відстороненим стилем спілкування GPT-5, що змусило OpenAI повернути доступ до колишньої, більш “доброзичливої” GPT-4o, принаймні для Plus-підписників. До того ж трагічний випадок із самогубством підлітка, якому ChatGPT, на думку батьків, не надав належної підтримки, показав, наскільки важливим є правильне налаштування особистісних якостей нейромережі.

Які нові можливості відкриються?

Глава команди Model Behavior Джоанн Чан переходить у проект OAI Labs. Тепер завдання експерта — вигадувати і тестувати нові інтерфейси для взаємодії зі ШІ, які вийдуть за рамки звичного чату. “Я хочу досліджувати моделі, які взаємодіють з людьми інакше, ніж через чат, який зараз асоціюється з партнерством. Нова парадигма відрізнятиметься навіть від агентів, де наголос робиться на автономію. Я думаю про ШІ-системи як про інструменти для мислення, творчості, гри, навчання та спілкування”, — заявила Чан.

Поки складно трактувати ці заяви як щось конкретне. Але ймовірно, що в майбутньому ChatGPT, для тих, хто цього потребує, зможе перетворитися з простого співрозмовника на повноцінного партнера, який допомагатиме у творчості, навчанні та розв’язанні складних завдань, пропонуючи більш інтуїтивні способи інтеракції.

Раніше повідомлялося, чому ШІ помиляється. OpenAI опублікувала дослідження, в якому пояснила, чому ChatGPT та інші нейромережі так часто “галюцинують” — впевнено видають неправдиву інформацію. Виявилося, це не збій, а прямий наслідок того, як їх навчають і оцінюють. Але є способи з часом це виправити.