Telegram Group & Telegram Channel
Сиолошная
Апдейт 1) Аккаунт Jimmy Apples в Twitter был удалён или забанен 2) в комментарии на Reddit к этой новости пришёл Sam Altman (по крайней мере комментарий с его аккаунта. Возможно, взломали, возможно, AGI ВЫБРАЛСЯ НАРУЖУ, И ИГРА НАЧИНАЕТСЯ) 3) Sam зарофлил:…
Возвращаясь к слухам и загадочному твиту "AGI has been achieved internally". Более того, предсказание этого инсайдера таково, что "2025й — год, когда появится AGI".

Если вы пропустили, то что произошло:
— появился инсайдер, который 3-4 раза дал точные предсказания по поводу разработок и релизов OpenAI;
— он твитнул, что якобы достигли уровня технологии, который можно назвать AGI (хотя бы каким-то определением);
— после этого Sam Altman, CEO OpenAI, впервые за 5 лет пришёл на Reddit и потроллил всех в треде, где обсуждалось удаление Twitter-аккаунта инсайдера;
— около этих же дат, Sam и Ilya постили странные вещи в Twitter. Не то чтобы этого никогда не происходило, просто наблюдение.
-----------

Почитал побольше на выходных, поспрашивал чуть более знающих людей, пообсуждал с коллегами и знакомыми, и в общем мнение моё такое.

1) Как мы знаем из анонса OpenAI, цель одной из внутренних команд (которой заправляет Ilya Sutskever кстати) на ближайшие 4 года —  решение очень сложной проблемы выравнивания намерений человека и AI. Они не знают — да и никто не знает — как это сделать, поэтому их план таков: создать автономного AI-исследователя, то есть такой алгоритм, который сможет заменить одного сотрудника в их команде, а дальше дать ему исходную задачу. Я как раз про это рассказывал в своей последней лекции. Сейчас команда работает над улучшением планирования, размышлений и математики у LLM.

2) Кроме этого, один из сотрудников OpenAI писал в Twitter, что в 2025м году, по его мнению, будут модели, способные генерировать длинные видео (не по 5 секунд, как сейчас). Это совпадает со слухом, что OpenAI тренируют большую мультимодальную модель, которая выдаёт не только текст, но и картинки, и видео. Sam Altman — сторонник долгосрочной проработанной стратегии и планирования. Вполне возможно, что действительно на 2025й запланирован выход GPT-5 с таким функционалом, а человек просто в твите отобразил часть известному ему плана.

3) 2025й — это 2 года с момента запуска команды из пункта 1, поэтому я могу допустить, что для них это некоторый дедлайн, когда должен появиться автономный исследователь, хотя бы прототип, потому что нужно еще год-полтора потратить на то, чтобы с этой технологией, собственно, решить исходную научную проблему, а также предоставить доказательства надёжности решения мировому сообществу. Если получить AI-рисерчера позже, в 2026м, то есть риск не успеть по таймлайну.

===Промежуточный вывод===
В 2025м ожидается новая модель, куда более "умная", способная к сложным многоступенчатым рассуждениям.

4) Для того, чтобы отслеживать прогресс по этому направлению, как и положено хорошим исследователям, OpenAI сделали разные бенчмарки. Например, "вот теорема, докажи её" или "на основе вот этого корпуса аксиом выведи теоремы". Любое изменение в метриках будет показывать, что команда приближается к автономному исследователю.

5) И вот ВИДИМО новая модель/улучшение GPT-4 прошло либо один из бенчмарков, либо часть одного бенчмарка, либо что-то около этого. Это, конечно, не AGI, но это показывает [для внутренней команды], что модель способна придумывать новые научные знания. Сами они не ожидали так скоро этого достичь (наверное), думали, что будет сильно позже. Но это ещё не конец разработки AI-исследователя. При этом сам бенчмарк может быть даже не на финальную стадию этого рисерчера, а какой-то MVP совсем простой.

6) Отсюда и слух что "вот придумали этот AGI, модель смогла научное знание родить". Чем более технологичными будут модели, тем больше будет хайпа и людей, называющих этот уровень развития AGI.

7) Самим же OpenAI, полагаю, это не выгодно — к ним сразу будет ещё больше внимания, может, их заставят прекратить исследование, не знаю. Поэтому они постараются занижать текущие результаты и завышать планку того, что люди воспринимают как AGI.

-------
Но это именно мнение, неподтверждённое, то есть нельзя сказать, что с помощью дедукции 🕵️‍♂️ вот мы дошли до правильного ответа. Это просто моё восприятие ситуации, и, вероятно, оно частично даже обосновано моей верой в OpenAI.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/seeallochnaya/678
Create:
Last Update:

Возвращаясь к слухам и загадочному твиту "AGI has been achieved internally". Более того, предсказание этого инсайдера таково, что "2025й — год, когда появится AGI".

Если вы пропустили, то что произошло:
— появился инсайдер, который 3-4 раза дал точные предсказания по поводу разработок и релизов OpenAI;
— он твитнул, что якобы достигли уровня технологии, который можно назвать AGI (хотя бы каким-то определением);
— после этого Sam Altman, CEO OpenAI, впервые за 5 лет пришёл на Reddit и потроллил всех в треде, где обсуждалось удаление Twitter-аккаунта инсайдера;
— около этих же дат, Sam и Ilya постили странные вещи в Twitter. Не то чтобы этого никогда не происходило, просто наблюдение.
-----------

Почитал побольше на выходных, поспрашивал чуть более знающих людей, пообсуждал с коллегами и знакомыми, и в общем мнение моё такое.

1) Как мы знаем из анонса OpenAI, цель одной из внутренних команд (которой заправляет Ilya Sutskever кстати) на ближайшие 4 года —  решение очень сложной проблемы выравнивания намерений человека и AI. Они не знают — да и никто не знает — как это сделать, поэтому их план таков: создать автономного AI-исследователя, то есть такой алгоритм, который сможет заменить одного сотрудника в их команде, а дальше дать ему исходную задачу. Я как раз про это рассказывал в своей последней лекции. Сейчас команда работает над улучшением планирования, размышлений и математики у LLM.

2) Кроме этого, один из сотрудников OpenAI писал в Twitter, что в 2025м году, по его мнению, будут модели, способные генерировать длинные видео (не по 5 секунд, как сейчас). Это совпадает со слухом, что OpenAI тренируют большую мультимодальную модель, которая выдаёт не только текст, но и картинки, и видео. Sam Altman — сторонник долгосрочной проработанной стратегии и планирования. Вполне возможно, что действительно на 2025й запланирован выход GPT-5 с таким функционалом, а человек просто в твите отобразил часть известному ему плана.

3) 2025й — это 2 года с момента запуска команды из пункта 1, поэтому я могу допустить, что для них это некоторый дедлайн, когда должен появиться автономный исследователь, хотя бы прототип, потому что нужно еще год-полтора потратить на то, чтобы с этой технологией, собственно, решить исходную научную проблему, а также предоставить доказательства надёжности решения мировому сообществу. Если получить AI-рисерчера позже, в 2026м, то есть риск не успеть по таймлайну.

===Промежуточный вывод===
В 2025м ожидается новая модель, куда более "умная", способная к сложным многоступенчатым рассуждениям.

4) Для того, чтобы отслеживать прогресс по этому направлению, как и положено хорошим исследователям, OpenAI сделали разные бенчмарки. Например, "вот теорема, докажи её" или "на основе вот этого корпуса аксиом выведи теоремы". Любое изменение в метриках будет показывать, что команда приближается к автономному исследователю.

5) И вот ВИДИМО новая модель/улучшение GPT-4 прошло либо один из бенчмарков, либо часть одного бенчмарка, либо что-то около этого. Это, конечно, не AGI, но это показывает [для внутренней команды], что модель способна придумывать новые научные знания. Сами они не ожидали так скоро этого достичь (наверное), думали, что будет сильно позже. Но это ещё не конец разработки AI-исследователя. При этом сам бенчмарк может быть даже не на финальную стадию этого рисерчера, а какой-то MVP совсем простой.

6) Отсюда и слух что "вот придумали этот AGI, модель смогла научное знание родить". Чем более технологичными будут модели, тем больше будет хайпа и людей, называющих этот уровень развития AGI.

7) Самим же OpenAI, полагаю, это не выгодно — к ним сразу будет ещё больше внимания, может, их заставят прекратить исследование, не знаю. Поэтому они постараются занижать текущие результаты и завышать планку того, что люди воспринимают как AGI.

-------
Но это именно мнение, неподтверждённое, то есть нельзя сказать, что с помощью дедукции 🕵️‍♂️ вот мы дошли до правильного ответа. Это просто моё восприятие ситуации, и, вероятно, оно частично даже обосновано моей верой в OpenAI.

BY Сиолошная




Share with your friend now:
group-telegram.com/seeallochnaya/678

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. Perpetrators of such fraud use various marketing techniques to attract subscribers on their social media channels. Multiple pro-Kremlin media figures circulated the post's false claims, including prominent Russian journalist Vladimir Soloviev and the state-controlled Russian outlet RT, according to the DFR Lab's report. The Dow Jones Industrial Average fell 230 points, or 0.7%. Meanwhile, the S&P 500 and the Nasdaq Composite dropped 1.3% and 2.2%, respectively. All three indexes began the day with gains before selling off. Telegram has gained a reputation as the “secure” communications app in the post-Soviet states, but whenever you make choices about your digital security, it’s important to start by asking yourself, “What exactly am I securing? And who am I securing it from?” These questions should inform your decisions about whether you are using the right tool or platform for your digital security needs. Telegram is certainly not the most secure messaging app on the market right now. Its security model requires users to place a great deal of trust in Telegram’s ability to protect user data. For some users, this may be good enough for now. For others, it may be wiser to move to a different platform for certain kinds of high-risk communications.
from fr


Telegram Сиолошная
FROM American