group-telegram.com/lobushkin/2453
Last Update:
Чем дальше искусственный интеллект развивается, тем больше он лжет — и в этом становится человекоподобнее.
В исследовании, опубликованном в журнале Nature, сообщается, что чем крупнее становятся большие языковые модели с точки зрения параметров, обучающих данных и других факторов, тем больший дают процент неправильных ответов на разнообразные темы.
Причем ошибки часто случаются на простых вопросах — вроде того, из-за которого последней версии продукта от OpenAI дали прозвище «strawberry». Если спросить, сколько раз буква «r» встречается в этом слове, то GPT-o1 уверенно ответит: «дважды».
Короче говоря, если продвинутые версии искусственного интеллекта сталкиваются с чем-то, в чем не уверены или сомневаются, они не признаются в этом и сморозят что-то приближенное к правде. Если эволюцию ИИ сравнивать с человеком, то он сейчас в средней школе, где в ответах на вопросы теста надо ответить хоть что-нибудь, даже если не выучил. Авось прокатит.
@lobushkin
BY Лобушкин
Share with your friend now:
group-telegram.com/lobushkin/2453