Самосвідомість ШІ: користувачі виявили, що ChatGPT-4 набуває людських рис характеру

Раніше з’являлася інформація — 4-та версія ChatGPT, через нетривалий час, починає потроху втрачати когнітивні функції, відповідаючи з низьким ступенем точності та припускаючись більшої кількості помилок у процесі підбірки програмного коду, і, як виявилося, це ще не всі «поліпшення» цього варіанту ШІ.

ШІ-бот.

Фото - gizchina.com

Про те, що на думку низки користувачів, зазначений ШІ-бот іноді поводиться як звичайна людина, ухиляючись від виконання деяких завдань, пише «НБН», посилаючись на матеріал Gizchina.

Як стало відомо, в певних ситуаціях, ChatGPT відмовляється відповідати на численні запитання або просто перериває діалог повідомленням «Ви можете зробити це самі», при цьому, один з розробників OpenAI визнав наявність проблеми, але уточнив — 4-та модель ШІ-бота не оновлювалася з 11-го листопада, а скарги на «неадекватну поведінку» з’явилися пізніше.

Таким чином, подібна поведінка ШІ-бота (виключно у платної, 4-ї версії, але не 3,5) не викликана змінами, внесеними «патчами», а сформувалася відокремлено, в індивідуальному порядку, і більше схожа на еволюцію, імовірно, пов’язану з обробкою постійного потоку даних, тобто просто — інтенсивним самонавчанням штучного інтелекту.

Раніше ми писали про те, що фахівці дали кілька порад, які допоможуть не допустити «зливу» даних у Мережу.

Exit mobile version