Самосознание ИИ: пользователи обнаружили, что ChatGPT-4 приобретает человеческие черты характера

Ранее появлялась информация — 4-я версия ChatGPT, спустя непродолжительное время, начинает понемногу терять когнитивные функции, отвечая с низкой степенью точности и допуская больше ошибок в процессе подборки программного кода, и, как оказалось, это еще не все «улучшения» данного варианта ИИ.

ШІ-бот.

Фото - gizchina.com

О том, что по мнению ряда пользователей, указанный ИИ-бот иногда ведет себя как обычный человек, увиливая от выполнения некоторых задач, пишет «НБН», ссылаясь на материал Gizchina.

Как стало известно, в определенных ситуациях, ChatGPT отказывается отвечать на многочисленные вопросы или попросту прерывает диалог сообщением «Вы можете сделать это сами», при этом, один из разработчиков OpenAI признал наличие проблемы, но уточнил — 4-я модель ИИ-бота не обновлялась с 11-го ноября, а жалобы на «неадекватное поведение» появились позже.

Таким образом, подобное поведение ИИ-бота (исключительно у платной, 4-й версии, но не 3,5) не вызвано изменениями, внесенными «патчами», а сформировалось обособленно, в индивидуальном порядке, и больше похоже на эволюцию, вероятно, связанную с обработкой постоянного потока данных, то есть попросту — интенсивным самообучением искусственного интеллекта.

Ранее мы писали о том, что специалисты дали несколько советов, которые помогут не допустить «слива» данных в Сеть.

Exit mobile version