Telegram Group & Telegram Channel
Сиолошная
Апдейт 1) Аккаунт Jimmy Apples в Twitter был удалён или забанен 2) в комментарии на Reddit к этой новости пришёл Sam Altman (по крайней мере комментарий с его аккаунта. Возможно, взломали, возможно, AGI ВЫБРАЛСЯ НАРУЖУ, И ИГРА НАЧИНАЕТСЯ) 3) Sam зарофлил:…
Возвращаясь к слухам и загадочному твиту "AGI has been achieved internally". Более того, предсказание этого инсайдера таково, что "2025й — год, когда появится AGI".

Если вы пропустили, то что произошло:
— появился инсайдер, который 3-4 раза дал точные предсказания по поводу разработок и релизов OpenAI;
— он твитнул, что якобы достигли уровня технологии, который можно назвать AGI (хотя бы каким-то определением);
— после этого Sam Altman, CEO OpenAI, впервые за 5 лет пришёл на Reddit и потроллил всех в треде, где обсуждалось удаление Twitter-аккаунта инсайдера;
— около этих же дат, Sam и Ilya постили странные вещи в Twitter. Не то чтобы этого никогда не происходило, просто наблюдение.
-----------

Почитал побольше на выходных, поспрашивал чуть более знающих людей, пообсуждал с коллегами и знакомыми, и в общем мнение моё такое.

1) Как мы знаем из анонса OpenAI, цель одной из внутренних команд (которой заправляет Ilya Sutskever кстати) на ближайшие 4 года —  решение очень сложной проблемы выравнивания намерений человека и AI. Они не знают — да и никто не знает — как это сделать, поэтому их план таков: создать автономного AI-исследователя, то есть такой алгоритм, который сможет заменить одного сотрудника в их команде, а дальше дать ему исходную задачу. Я как раз про это рассказывал в своей последней лекции. Сейчас команда работает над улучшением планирования, размышлений и математики у LLM.

2) Кроме этого, один из сотрудников OpenAI писал в Twitter, что в 2025м году, по его мнению, будут модели, способные генерировать длинные видео (не по 5 секунд, как сейчас). Это совпадает со слухом, что OpenAI тренируют большую мультимодальную модель, которая выдаёт не только текст, но и картинки, и видео. Sam Altman — сторонник долгосрочной проработанной стратегии и планирования. Вполне возможно, что действительно на 2025й запланирован выход GPT-5 с таким функционалом, а человек просто в твите отобразил часть известному ему плана.

3) 2025й — это 2 года с момента запуска команды из пункта 1, поэтому я могу допустить, что для них это некоторый дедлайн, когда должен появиться автономный исследователь, хотя бы прототип, потому что нужно еще год-полтора потратить на то, чтобы с этой технологией, собственно, решить исходную научную проблему, а также предоставить доказательства надёжности решения мировому сообществу. Если получить AI-рисерчера позже, в 2026м, то есть риск не успеть по таймлайну.

===Промежуточный вывод===
В 2025м ожидается новая модель, куда более "умная", способная к сложным многоступенчатым рассуждениям.

4) Для того, чтобы отслеживать прогресс по этому направлению, как и положено хорошим исследователям, OpenAI сделали разные бенчмарки. Например, "вот теорема, докажи её" или "на основе вот этого корпуса аксиом выведи теоремы". Любое изменение в метриках будет показывать, что команда приближается к автономному исследователю.

5) И вот ВИДИМО новая модель/улучшение GPT-4 прошло либо один из бенчмарков, либо часть одного бенчмарка, либо что-то около этого. Это, конечно, не AGI, но это показывает [для внутренней команды], что модель способна придумывать новые научные знания. Сами они не ожидали так скоро этого достичь (наверное), думали, что будет сильно позже. Но это ещё не конец разработки AI-исследователя. При этом сам бенчмарк может быть даже не на финальную стадию этого рисерчера, а какой-то MVP совсем простой.

6) Отсюда и слух что "вот придумали этот AGI, модель смогла научное знание родить". Чем более технологичными будут модели, тем больше будет хайпа и людей, называющих этот уровень развития AGI.

7) Самим же OpenAI, полагаю, это не выгодно — к ним сразу будет ещё больше внимания, может, их заставят прекратить исследование, не знаю. Поэтому они постараются занижать текущие результаты и завышать планку того, что люди воспринимают как AGI.

-------
Но это именно мнение, неподтверждённое, то есть нельзя сказать, что с помощью дедукции 🕵️‍♂️ вот мы дошли до правильного ответа. Это просто моё восприятие ситуации, и, вероятно, оно частично даже обосновано моей верой в OpenAI.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/seeallochnaya/678
Create:
Last Update:

Возвращаясь к слухам и загадочному твиту "AGI has been achieved internally". Более того, предсказание этого инсайдера таково, что "2025й — год, когда появится AGI".

Если вы пропустили, то что произошло:
— появился инсайдер, который 3-4 раза дал точные предсказания по поводу разработок и релизов OpenAI;
— он твитнул, что якобы достигли уровня технологии, который можно назвать AGI (хотя бы каким-то определением);
— после этого Sam Altman, CEO OpenAI, впервые за 5 лет пришёл на Reddit и потроллил всех в треде, где обсуждалось удаление Twitter-аккаунта инсайдера;
— около этих же дат, Sam и Ilya постили странные вещи в Twitter. Не то чтобы этого никогда не происходило, просто наблюдение.
-----------

Почитал побольше на выходных, поспрашивал чуть более знающих людей, пообсуждал с коллегами и знакомыми, и в общем мнение моё такое.

1) Как мы знаем из анонса OpenAI, цель одной из внутренних команд (которой заправляет Ilya Sutskever кстати) на ближайшие 4 года —  решение очень сложной проблемы выравнивания намерений человека и AI. Они не знают — да и никто не знает — как это сделать, поэтому их план таков: создать автономного AI-исследователя, то есть такой алгоритм, который сможет заменить одного сотрудника в их команде, а дальше дать ему исходную задачу. Я как раз про это рассказывал в своей последней лекции. Сейчас команда работает над улучшением планирования, размышлений и математики у LLM.

2) Кроме этого, один из сотрудников OpenAI писал в Twitter, что в 2025м году, по его мнению, будут модели, способные генерировать длинные видео (не по 5 секунд, как сейчас). Это совпадает со слухом, что OpenAI тренируют большую мультимодальную модель, которая выдаёт не только текст, но и картинки, и видео. Sam Altman — сторонник долгосрочной проработанной стратегии и планирования. Вполне возможно, что действительно на 2025й запланирован выход GPT-5 с таким функционалом, а человек просто в твите отобразил часть известному ему плана.

3) 2025й — это 2 года с момента запуска команды из пункта 1, поэтому я могу допустить, что для них это некоторый дедлайн, когда должен появиться автономный исследователь, хотя бы прототип, потому что нужно еще год-полтора потратить на то, чтобы с этой технологией, собственно, решить исходную научную проблему, а также предоставить доказательства надёжности решения мировому сообществу. Если получить AI-рисерчера позже, в 2026м, то есть риск не успеть по таймлайну.

===Промежуточный вывод===
В 2025м ожидается новая модель, куда более "умная", способная к сложным многоступенчатым рассуждениям.

4) Для того, чтобы отслеживать прогресс по этому направлению, как и положено хорошим исследователям, OpenAI сделали разные бенчмарки. Например, "вот теорема, докажи её" или "на основе вот этого корпуса аксиом выведи теоремы". Любое изменение в метриках будет показывать, что команда приближается к автономному исследователю.

5) И вот ВИДИМО новая модель/улучшение GPT-4 прошло либо один из бенчмарков, либо часть одного бенчмарка, либо что-то около этого. Это, конечно, не AGI, но это показывает [для внутренней команды], что модель способна придумывать новые научные знания. Сами они не ожидали так скоро этого достичь (наверное), думали, что будет сильно позже. Но это ещё не конец разработки AI-исследователя. При этом сам бенчмарк может быть даже не на финальную стадию этого рисерчера, а какой-то MVP совсем простой.

6) Отсюда и слух что "вот придумали этот AGI, модель смогла научное знание родить". Чем более технологичными будут модели, тем больше будет хайпа и людей, называющих этот уровень развития AGI.

7) Самим же OpenAI, полагаю, это не выгодно — к ним сразу будет ещё больше внимания, может, их заставят прекратить исследование, не знаю. Поэтому они постараются занижать текущие результаты и завышать планку того, что люди воспринимают как AGI.

-------
Но это именно мнение, неподтверждённое, то есть нельзя сказать, что с помощью дедукции 🕵️‍♂️ вот мы дошли до правильного ответа. Это просто моё восприятие ситуации, и, вероятно, оно частично даже обосновано моей верой в OpenAI.

BY Сиолошная




Share with your friend now:
group-telegram.com/seeallochnaya/678

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Overall, extreme levels of fear in the market seems to have morphed into something more resembling concern. For example, the Cboe Volatility Index fell from its 2022 peak of 36, which it hit Monday, to around 30 on Friday, a sign of easing tensions. Meanwhile, while the price of WTI crude oil slipped from Sunday’s multiyear high $130 of barrel to $109 a pop. Markets have been expecting heavy restrictions on Russian oil, some of which the U.S. has already imposed, and that would reduce the global supply and bring about even more burdensome inflation. You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp. He adds: "Telegram has become my primary news source." Andrey, a Russian entrepreneur living in Brazil who, fearing retaliation, asked that NPR not use his last name, said Telegram has become one of the few places Russians can access independent news about the war. The SC urges the public to refer to the SC’s I nvestor Alert List before investing. The list contains details of unauthorised websites, investment products, companies and individuals. Members of the public who suspect that they have been approached by unauthorised firms or individuals offering schemes that promise unrealistic returns
from cn


Telegram Сиолошная
FROM American