group-telegram.com/russiancouncil/6157
Last Update:
GPT-4o, GPT-o1, GPT-5... технология больших языковых моделей (LLM) на основе трансформеров (GPT) продвинулась настолько, что все больше ученых и разработчиков начинают полагать, что общий, сильный и даже сверхчеловеческий интеллект (AGI) появится уже в течение нескольких лет. Один из ярких тому примеров — недавняя нашумевшая работа Леопольда Ашенбреннера, выходца из компании OpenAI. Название статьи дословно переводится как «Cитуационная осведомленность» — военный термин, очевидно, предполагающий изучение этой книги в военно-политических кругах в первую очередь. Действительно, наряду с утверждением о неизбежном создании сверхинтеллекта в течение ближайших трех лет, автор призывает на уровне руководства США принять незамедлительные меры, направленные на обеспечение тотального доминирования США в «гонке ИИ», с жесткими ограничениями возможностей создания подобной технологии в альтернативных мировых «центрах силы», включая засекречивание всех дальнейших работ в области ИИ в США.
Современные большие языковые модели на основе трансформеров типа ChatGPT позволяют на основе машинного обучения на больших объемах текстовых данных решить ту задачу, которую Алан Тюринг поставил более 50 лет назад, и решить уже «по-честному». Однако если внимательно вглядеться в определение AGI, данное его авторами, то ChatGPT также пока не удовлетворяет требованиям к общему интеллекту. Оптимальные текстовые ответы действительно предлагаются в контексте информации используемого для обучения текстового корпуса и заданного «промпта», причем выдаются за достаточно короткое время, однако ни об обучении поведению в новых условиях, ни об ограниченных вычислительных ресурсах не идет и речи. Обучение осуществляется однократно — требуется более месяца на обучение ChatGPT на высокопроизводительном кластере графических карт, причем на одной карте это заняло бы более трехсот лет. Соответственно, о минимизации энергопотребления также пока говорить нельзя — на сегодняшний день поддержка моделей типа ChatGPT требует энергозатрат, сопоставимых с майнингом криптовалют.
Чего еще нам не хватает от LLM/GPT для AGI? Побороть галлюцинации, стать дообучаемым, переобучаемым и интерпретируемым.
Насколько создание AGI действительно близко, и что еще предстоит сделать для его достижения, исследует ведущий специалист Новосибирского государственного университета, основатель проекта «Aigents» Антон Колонин.
https://pl/russiancouncil.com.ru/analytics-and-comments/analytics/kuda-rasti-gryadushchemu-sverkhintellektu/
BY РСМД
Share with your friend now:
group-telegram.com/russiancouncil/6157