Telegram Group & Telegram Channel
GPT-4o, GPT-o1, GPT-5... технология больших языковых моделей (LLM) на основе трансформеров (GPT) продвинулась настолько, что все больше ученых и разработчиков начинают полагать, что общий, сильный и даже сверхчеловеческий интеллект (AGI) появится уже в течение нескольких лет. Один из ярких тому примеров — недавняя нашумевшая работа Леопольда Ашенбреннера, выходца из компании OpenAI. Название статьи дословно переводится как «Cитуационная осведомленность» — военный термин, очевидно, предполагающий изучение этой книги в военно-политических кругах в первую очередь. Действительно, наряду с утверждением о неизбежном создании сверхинтеллекта в течение ближайших трех лет, автор призывает на уровне руководства США принять незамедлительные меры, направленные на обеспечение тотального доминирования США в «гонке ИИ», с жесткими ограничениями возможностей создания подобной технологии в альтернативных мировых «центрах силы», включая засекречивание всех дальнейших работ в области ИИ в США.

Современные большие языковые модели на основе трансформеров типа ChatGPT позволяют на основе машинного обучения на больших объемах текстовых данных решить ту задачу, которую Алан Тюринг поставил более 50 лет назад, и решить уже «по-честному». Однако если внимательно вглядеться в определение AGI, данное его авторами, то ChatGPT также пока не удовлетворяет требованиям к общему интеллекту. Оптимальные текстовые ответы действительно предлагаются в контексте информации используемого для обучения текстового корпуса и заданного «промпта», причем выдаются за достаточно короткое время, однако ни об обучении поведению в новых условиях, ни об ограниченных вычислительных ресурсах не идет и речи. Обучение осуществляется однократно — требуется более месяца на обучение ChatGPT на высокопроизводительном кластере графических карт, причем на одной карте это заняло бы более трехсот лет. Соответственно, о минимизации энергопотребления также пока говорить нельзя — на сегодняшний день поддержка моделей типа ChatGPT требует энергозатрат, сопоставимых с майнингом криптовалют.

Чего еще нам не хватает от LLM/GPT для AGI? Побороть галлюцинации, стать дообучаемым, переобучаемым и интерпретируемым.

Насколько создание AGI действительно близко, и что еще предстоит сделать для его достижения, исследует ведущий специалист Новосибирского государственного университета, основатель проекта «Aigents» Антон Колонин.
https://in/russiancouncil.com.ru/analytics-and-comments/analytics/kuda-rasti-gryadushchemu-sverkhintellektu/



group-telegram.com/russiancouncil/6157
Create:
Last Update:

GPT-4o, GPT-o1, GPT-5... технология больших языковых моделей (LLM) на основе трансформеров (GPT) продвинулась настолько, что все больше ученых и разработчиков начинают полагать, что общий, сильный и даже сверхчеловеческий интеллект (AGI) появится уже в течение нескольких лет. Один из ярких тому примеров — недавняя нашумевшая работа Леопольда Ашенбреннера, выходца из компании OpenAI. Название статьи дословно переводится как «Cитуационная осведомленность» — военный термин, очевидно, предполагающий изучение этой книги в военно-политических кругах в первую очередь. Действительно, наряду с утверждением о неизбежном создании сверхинтеллекта в течение ближайших трех лет, автор призывает на уровне руководства США принять незамедлительные меры, направленные на обеспечение тотального доминирования США в «гонке ИИ», с жесткими ограничениями возможностей создания подобной технологии в альтернативных мировых «центрах силы», включая засекречивание всех дальнейших работ в области ИИ в США.

Современные большие языковые модели на основе трансформеров типа ChatGPT позволяют на основе машинного обучения на больших объемах текстовых данных решить ту задачу, которую Алан Тюринг поставил более 50 лет назад, и решить уже «по-честному». Однако если внимательно вглядеться в определение AGI, данное его авторами, то ChatGPT также пока не удовлетворяет требованиям к общему интеллекту. Оптимальные текстовые ответы действительно предлагаются в контексте информации используемого для обучения текстового корпуса и заданного «промпта», причем выдаются за достаточно короткое время, однако ни об обучении поведению в новых условиях, ни об ограниченных вычислительных ресурсах не идет и речи. Обучение осуществляется однократно — требуется более месяца на обучение ChatGPT на высокопроизводительном кластере графических карт, причем на одной карте это заняло бы более трехсот лет. Соответственно, о минимизации энергопотребления также пока говорить нельзя — на сегодняшний день поддержка моделей типа ChatGPT требует энергозатрат, сопоставимых с майнингом криптовалют.

Чего еще нам не хватает от LLM/GPT для AGI? Побороть галлюцинации, стать дообучаемым, переобучаемым и интерпретируемым.

Насколько создание AGI действительно близко, и что еще предстоит сделать для его достижения, исследует ведущий специалист Новосибирского государственного университета, основатель проекта «Aigents» Антон Колонин.
https://in/russiancouncil.com.ru/analytics-and-comments/analytics/kuda-rasti-gryadushchemu-sverkhintellektu/

BY РСМД




Share with your friend now:
group-telegram.com/russiancouncil/6157

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. As the war in Ukraine rages, the messaging app Telegram has emerged as the go-to place for unfiltered live war updates for both Ukrainian refugees and increasingly isolated Russians alike. Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government.
from in


Telegram РСМД
FROM American