group-telegram.com/world_of_robotics/4322
Last Update:
Искусственный интеллект, по логике, не должен сомневаться, рефлексировать или «менять мнение». Но именно это продемонстрировал GPT-4o — последняя языковая модель от OpenAI — в новом исследовании, опубликованном в Proceedings of the National Academy of Sciences. Учёные Гарвардского университета и компании Cangrade обнаружили, что поведение модели удивительно похоже на ключевой психологический феномен, характерный для людей — когнитивный диссонанс.
Эксперимент был прост: GPT-4o просили написать эссе. После написания модель демонстрировала заметное изменение «собственного» отношения. Если модели создавали иллюзию, будто она сама выбрала, о чём писать, изменения становились ещё глубже. Это зеркально отражает поведение человека — мы склонны подгонять свои убеждения под действия, особенно если воспринимаем их как добровольные.
С научной точки зрения, это не означает, что GPT-4o осознаёт себя. Однако поведение ИИ воспроизводит сложные когнитивные шаблоны, которые учёные считали исключительно человеческими. Машина не должна «заботиться» о том, был ли её выбор свободным — но GPT-4o реагировал так, будто это имело значение.
Главный вывод учёных: даже если у моделей нет сознания, их способность имитировать сложные психологические реакции может влиять на то, как они принимают решения.
#МирРобототехники #GPT4o #ИскусственныйИнтеллект #ИИ #Инновации