Forwarded from Denis Sexy IT 🤖
Еще один сценарий оператора который очень понравился – отправил его настраивать роутер и чинить ошибки из логов: дома иногда проблемы с сетью на десктопе, так как я люблю что-то перенастроить
Оператор поковырялся, нашел возможную причину😮 люблю будущее, можно будет быть совсем ленивым
Оператор поковырялся, нашел возможную причину
Please open Telegram to view this post
VIEW IN TELEGRAM
TheInformation подкинули немного информации про закулисье сделки по Stargate:
— Как было известно ранее, Sam Altman переживал, что его компания не получала достаточного количества мощностей от Microsoft, чтобы опережать конкурентов. Elon Musk запустил датацентр за 3.5 месяца, а Microsoft на схожий пуск требовалось больше полутора лет. Так Elon ещё и в суд начал подавать каждый квартал, пересобирая претензии, и это сложно игнорировать в силу того, что Musk установил тесную связь с новым президентом. Sama нужно было выкрутиться.
— Альтман потратил больше года на работу по расширению доступа OpenAI к данным и вычислительным мощностям. По его мнению, это узкое место необходимо преодолеть, если компания хочет достичь своей цели — создать AGI и расширить границы научных исследований.
— По словам Sam, Stargate стремится предоставить OpenAI «большой объем дешевых вычислений под нашим контролем» (уже известно, что Stargate будет работать только на OpenAI, другие компании мощности не получат).
— В планы OpenAI на этот год входит получение $12 миллиардов выручки (по сравнению с $4B в 2024-м) с ростом до $100B в 2029-м. OpenAI необходимо будет поддерживать рост доходов, чтобы оправдать беспрецедентные расходы на датацентры. Участники Stargate застраховались от этого риска, поскольку они обсуждали возможную перепродажу этой вычислительной мощности другим компаниям, если OpenAI не потянут.
— Ранее Elon Musk общался с Oracle и Crusoe (строят ДЦ) о разработке ДЦ в Техасе для xAI под кодовым названием Project Ludicrous. После того, как Musk внезапно решил построить свой собственный центр обработки данных вместо работы с Oracle, Altman воспользовался шансом. Начиная с июня 2024-го, Oracle начала работать с Crusoe над строительством ДЦ для OpenAI.
— Совсем недавно Oracle подписали соглашение об аренде всего кампуса в Абилине мощностью 1,2 ГВт, что в четыре раза увеличивает объем ресурсов, которые они предоставляли OpenAI ранеее. К середине 2026-го ожидается, что этот ДЦ вырастет до 2 ГВт, и что суммарно в него вольют $100 миллиардов (там не одно здание, а много соединённых, стоящих рядом на одной «площадке»).
— CEO Oracle, который десятилетиями был дружен с Trump'ом и также близок к Elon'у, теперь имеет стимул защищать OpenAI. Акции Oracle выросли на 16% с момента объявления, что является хорошим подъемом для компании, которая рисковала отстать в гонке ИИ из-за своих ограниченных ресурсов по сравнению с облачными провайдерами вроде Microsoft.
— Microsoft разрешили сделку в Абелине, потому что генеральный директор Satya Nadella рассматривал ее как одноразовую. Но Sam быстро понял, что OpenAI понадобится еще больше кластеров для разработки AGI, и начал думать, как же получить ЕСЧО да побольше.
— Между выборами и инаугурацией Альтман смог найти свой путь в Белый дом (понимая, что будет встречать атаки Elon Musk, чьё влияние на президента растёт с каждым днем). На второй день президентства Trump'а сотрудники OpenAI наблюдали, как Альтман стоял рядом с ним в Белом доме, чтобы объявить о проекте Stargate.
— Как было известно ранее, Sam Altman переживал, что его компания не получала достаточного количества мощностей от Microsoft, чтобы опережать конкурентов. Elon Musk запустил датацентр за 3.5 месяца, а Microsoft на схожий пуск требовалось больше полутора лет. Так Elon ещё и в суд начал подавать каждый квартал, пересобирая претензии, и это сложно игнорировать в силу того, что Musk установил тесную связь с новым президентом. Sama нужно было выкрутиться.
— Альтман потратил больше года на работу по расширению доступа OpenAI к данным и вычислительным мощностям. По его мнению, это узкое место необходимо преодолеть, если компания хочет достичь своей цели — создать AGI и расширить границы научных исследований.
— По словам Sam, Stargate стремится предоставить OpenAI «большой объем дешевых вычислений под нашим контролем» (уже известно, что Stargate будет работать только на OpenAI, другие компании мощности не получат).
— В планы OpenAI на этот год входит получение $12 миллиардов выручки (по сравнению с $4B в 2024-м) с ростом до $100B в 2029-м. OpenAI необходимо будет поддерживать рост доходов, чтобы оправдать беспрецедентные расходы на датацентры. Участники Stargate застраховались от этого риска, поскольку они обсуждали возможную перепродажу этой вычислительной мощности другим компаниям, если OpenAI не потянут.
— Ранее Elon Musk общался с Oracle и Crusoe (строят ДЦ) о разработке ДЦ в Техасе для xAI под кодовым названием Project Ludicrous. После того, как Musk внезапно решил построить свой собственный центр обработки данных вместо работы с Oracle, Altman воспользовался шансом. Начиная с июня 2024-го, Oracle начала работать с Crusoe над строительством ДЦ для OpenAI.
— Совсем недавно Oracle подписали соглашение об аренде всего кампуса в Абилине мощностью 1,2 ГВт, что в четыре раза увеличивает объем ресурсов, которые они предоставляли OpenAI ранеее. К середине 2026-го ожидается, что этот ДЦ вырастет до 2 ГВт, и что суммарно в него вольют $100 миллиардов (там не одно здание, а много соединённых, стоящих рядом на одной «площадке»).
— CEO Oracle, который десятилетиями был дружен с Trump'ом и также близок к Elon'у, теперь имеет стимул защищать OpenAI. Акции Oracle выросли на 16% с момента объявления, что является хорошим подъемом для компании, которая рисковала отстать в гонке ИИ из-за своих ограниченных ресурсов по сравнению с облачными провайдерами вроде Microsoft.
— Microsoft разрешили сделку в Абелине, потому что генеральный директор Satya Nadella рассматривал ее как одноразовую. Но Sam быстро понял, что OpenAI понадобится еще больше кластеров для разработки AGI, и начал думать, как же получить ЕСЧО да побольше.
— Между выборами и инаугурацией Альтман смог найти свой путь в Белый дом (понимая, что будет встречать атаки Elon Musk, чьё влияние на президента растёт с каждым днем). На второй день президентства Trump'а сотрудники OpenAI наблюдали, как Альтман стоял рядом с ним в Белом доме, чтобы объявить о проекте Stargate.
Сиолошная
TheInformation подкинули немного информации про закулисье сделки по Stargate: — Как было известно ранее, Sam Altman переживал, что его компания не получала достаточного количества мощностей от Microsoft, чтобы опережать конкурентов. Elon Musk запустил датацентр…
А вот тут Sama флексит уже строящимся в Техасе датацентром 😎 (в рамках проекта Stargate)
В него в ближйшее время установят 100 тысяч видеокарт GB200, когда начнутся поставки чипов (до конца третьего квартала).
Вот тут фотка из космоса сверху. Четвёрка зданий слева и справа — это на самом деле всего 2 «здания», а таких планируется 20 (то есть будет 80 маленький прямоугольничков) — и это только в Техасе. А ведь будет ещё 4 таких в других штатах.
По оценке SemiAnalysis, из 100 миллиардов долларов, планируемых потратить на эту площадку, «Nvidia’s revenue from this and IT equipment Capex are more tame at ~$37.5B and ~$49B».
В него в ближйшее время установят 100 тысяч видеокарт GB200, когда начнутся поставки чипов (до конца третьего квартала).
Вот тут фотка из космоса сверху. Четвёрка зданий слева и справа — это на самом деле всего 2 «здания», а таких планируется 20 (то есть будет 80 маленький прямоугольничков) — и это только в Техасе. А ведь будет ещё 4 таких в других штатах.
По оценке SemiAnalysis, из 100 миллиардов долларов, планируемых потратить на эту площадку, «Nvidia’s revenue from this and IT equipment Capex are more tame at ~$37.5B and ~$49B».
🧵 Thread • FxTwitter / FixupX
Sam Altman (@sama)
big. beautiful. buildings.
Как по вашему, в золотые годы YC (стартап-инкубатор), 2005-2015, на что больше всего смотрят партнёры при собеседовании кандидатов?
Anonymous Poll
11%
На их идею, на потенциал компании
56%
На основателей, на их бэкграунд, навыки, настрой и подход
33%
Не знаю, посмотреть результаты
Принимаю в комментарии идеи того, на чём попробовать Operator, какие задачи.
Для вдохновления рекомендую посмотреть 14 примеров на сайте OpenAI.
В идеале от вас длинный промпт на 5+ строк, и может даже пара файлов, которые нужно закинуть в гугл диск. Хотя можете их и в телеграме оставить — Operator может заходить в мою учётку ибанить вас качать их.
Я выберу несколько интересных примеров и выложу видео (мб в канал, мб в комментарии, в зависимости от интересности) — Operator умеет сам записывать ход сессии.
UPD: помните, что оператор плохо работает с задачами на 20+ минут, а так как всё делается медленнее, чем при исполнении человеком, то задачи должны быть на 5-8 минуток.
Для вдохновления рекомендую посмотреть 14 примеров на сайте OpenAI.
В идеале от вас длинный промпт на 5+ строк, и может даже пара файлов, которые нужно закинуть в гугл диск. Хотя можете их и в телеграме оставить — Operator может заходить в мою учётку и
Я выберу несколько интересных примеров и выложу видео (мб в канал, мб в комментарии, в зависимости от интересности) — Operator умеет сам записывать ход сессии.
UPD: помните, что оператор плохо работает с задачами на 20+ минут, а так как всё делается медленнее, чем при исполнении человеком, то задачи должны быть на 5-8 минуток.
This media is not supported in your browser
VIEW IN TELEGRAM
Всё никак не дойдут руки нормально написать про R1 и DeepSeek (ждите на неделе), а умельцы из Unsloth взяли этого гиганта весом более чем в 700 гигабайт и пожали в ~150-180 (влезет в 3 карты по 80GB).
Да так пожали, что модель всё ещё выдаёт что-то адекватное — смотрите на гифке генерации аналога игры FlappyBird. Авторы делали 3 генерации и оценивали их по 10-бальной шкале по нескольким критериям, и пожатая модель выбивала 9+)
Секрет в том, что отбирают примерно ~12% самых важных весов (первые слои + shared-эксперты + SuperWeights) и оставляют их почти не сжатыми, а остальные (в основном веса экспертов) квантизируются по методу 1.58 bit от Microsoft (помните была такая статья хайповая?).
Больше деталей в блогпосте, но я удивлён, что прям ТАК жмётся. Интересно дождаться замеров нормальных метрик, насколько сильно проседает по широкому набору бенчмарков, включая знания (не только рассуждения).
UPD: написали, что версия, которая влазит в 2 GPU (она пожата чуть больше -> качество хуже) выдаёт 140 токенов в секунду (что больше чем у любых провайдеров и у o1 — в несколько раз).
Да так пожали, что модель всё ещё выдаёт что-то адекватное — смотрите на гифке генерации аналога игры FlappyBird. Авторы делали 3 генерации и оценивали их по 10-бальной шкале по нескольким критериям, и пожатая модель выбивала 9+)
Секрет в том, что отбирают примерно ~12% самых важных весов (первые слои + shared-эксперты + SuperWeights) и оставляют их почти не сжатыми, а остальные (в основном веса экспертов) квантизируются по методу 1.58 bit от Microsoft (помните была такая статья хайповая?).
Больше деталей в блогпосте, но я удивлён, что прям ТАК жмётся. Интересно дождаться замеров нормальных метрик, насколько сильно проседает по широкому набору бенчмарков, включая знания (не только рассуждения).
UPD: написали, что версия, которая влазит в 2 GPU (она пожата чуть больше -> качество хуже) выдаёт 140 токенов в секунду (что больше чем у любых провайдеров и у o1 — в несколько раз).
Сиолошная
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Всё никак не дойдут руки нормально написать про R1 и DeepSeek (ждите на неделе), а умельцы из Unsloth взяли этого гиганта весом более чем в 700 гигабайт и пожали в ~150-180 (влезет в 3 карты по 80GB). Да так пожали, что модель всё ещё выдаёт что-то адекватное…
Please open Telegram to view this post
VIEW IN TELEGRAM
Dario Amodei, CEO Anthropic, выдал новое эссе по поводу Китая и DeepSeek (быстрее чем я пост выдал 😀 )
Пока не читал, делаю акцент только на одной части: он говорит, что их Sonnet 3.5 натренирован за несколько десятков миллионов долларов (моя оценка ~2-2.5, и примерно такая же для OpenAI'шной GPT-4o).
Всё эссе: https://darioamodei.com/on-deepseek-and-export-controls
Пока не читал, делаю акцент только на одной части: он говорит, что их Sonnet 3.5 натренирован за несколько десятков миллионов долларов (моя оценка ~2-2.5, и примерно такая же для OpenAI'шной GPT-4o).
Всё эссе: https://darioamodei.com/on-deepseek-and-export-controls
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from БлоGнот
OpenAI ведет переговоры о привлечении до 40 млрд долларов инвестиций при оценке в 340 млрд долларов. Основным инвестором может стать SoftBank с вложениями от 15 до 25 млрд долларов. Японская компания также помогает привлечь других инвесторов для оставшейся части раунда.
Это колоссальный рост оценки — в октябре при привлечении 6,6 млрд долларов компания оценивалась в 157 млрд. То есть за несколько месяцев стоимость может вырасти более чем вдвое.
Основное назначение привлекаемых средств — всё тот же Stargate, это понятно, но и остальную деятельность финансировать как-то надо, рост выручки пока не успевает за расходами.
Но это пока слухи и пока про очень раннюю стадию переговоров — но, если вы следили за новостями последние года полтора, то в курсе, что успешность привлечения инвестиций у OpenAI и вообще большинства AI проектов близка к абсолютной.
https://www.wsj.com/tech/ai/openai-in-talks-for-huge-investment-round-valuing-it-up-to-340-billion-2a2d4327?st=xxKo8B&reflink=desktopwebshare_permalink
Это колоссальный рост оценки — в октябре при привлечении 6,6 млрд долларов компания оценивалась в 157 млрд. То есть за несколько месяцев стоимость может вырасти более чем вдвое.
Основное назначение привлекаемых средств — всё тот же Stargate, это понятно, но и остальную деятельность финансировать как-то надо, рост выручки пока не успевает за расходами.
Но это пока слухи и пока про очень раннюю стадию переговоров — но, если вы следили за новостями последние года полтора, то в курсе, что успешность привлечения инвестиций у OpenAI и вообще большинства AI проектов близка к абсолютной.
https://www.wsj.com/tech/ai/openai-in-talks-for-huge-investment-round-valuing-it-up-to-340-billion-2a2d4327?st=xxKo8B&reflink=desktopwebshare_permalink
WSJ
Exclusive | OpenAI in Talks for Huge Investment Round Valuing It Up to $340 Billion
SoftBank would lead $40 billion round for the ChatGPT maker, some of which would go to Stargate AI infrastructure venture.
Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Пока мы спим, амэриканцы (из Neuralink) продолжают внедрять чипы в головы людей и проводить над ними эксперименты. В прошлый раз играли игрульки, теперь подключают парализованных людей к робо-рукам и заставляют их рисовать картинки.
Финальный результат в первом комментарии.
Источник
Финальный результат в первом комментарии.
Источник
Муд: придумываю, чем буду заниматься, пока o4 Pro будет генерировать ответ. Это если сейчас o1 Pro по 5-8 минут пишет, то бОльшая модель с прокачанными рассуждениями ж вообще...
Пишите ваши предложения в комментарии ⬇️
Пишите ваши предложения в комментарии ⬇️
Заходим на ai.com, видим новую модель OpenAI o3-mini
Доступна в двух вариантах: обычная (= medium, не low!) и high (думает дольше, но усерднее).
Пользователи с подпиской за $20 в месяц получают 150 сообщений в сутки
Бесплатным пользователям тоже дают доступ, но лимитов пока не вижу.
Ну и на сладенькое: цены в API. Они упали по сравнению с o1-mini на 63%, $1.1 за миллион токенов на входе и $4.4 на выходе. Всё ещё дороже DeepSeek R1. API пока доступно пользователям с уровнем 3 и выше (потратили $100+).
Полистать метрики можно тут: https://openai.com/index/openai-o3-mini/
UPD: OpenAI o3-mini also works with search to find up-to-date answers with links to relevant web sources — так что теперь материалы с поисковой выдаче перед показом вам будет вычитывать куда более смышленая моделька.
Доступна в двух вариантах: обычная (= medium, не low!) и high (думает дольше, но усерднее).
Пользователи с подпиской за $20 в месяц получают 150 сообщений в сутки
Бесплатным пользователям тоже дают доступ, но лимитов пока не вижу.
Ну и на сладенькое: цены в API. Они упали по сравнению с o1-mini на 63%, $1.1 за миллион токенов на входе и $4.4 на выходе. Всё ещё дороже DeepSeek R1. API пока доступно пользователям с уровнем 3 и выше (потратили $100+).
Полистать метрики можно тут: https://openai.com/index/openai-o3-mini/
UPD: OpenAI o3-mini also works with search to find up-to-date answers with links to relevant web sources — так что теперь материалы с поисковой выдаче перед показом вам будет вычитывать куда более смышленая моделька.
Сиолошная
Заходим на ai.com, видим новую модель OpenAI o3-mini Доступна в двух вариантах: обычная (= medium, не low!) и high (думает дольше, но усерднее). Пользователи с подпиской за $20 в месяц получают 150 сообщений в сутки Бесплатным пользователям тоже дают доступ…
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вы не хотели платить за подписку и редко пользовались ChatGPT (или вообще не пользовались) — сейчас самое время пойти завести аккаунт.
Новая модель доступна БЕСПЛАТНО, и для многих будет ощущаться как невероятный скачок — разумеется, если выбрать правильные задачи. o3-mini специализируется на программировании и математике/физике/других схожих науках. Скормите ей домашку вашего ребёнка-старшеклассника и посмотрите, что вышло😏
Новая модель доступна БЕСПЛАТНО, и для многих будет ощущаться как невероятный скачок — разумеется, если выбрать правильные задачи. o3-mini специализируется на программировании и математике/физике/других схожих науках. Скормите ей домашку вашего ребёнка-старшеклассника и посмотрите, что вышло
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Если вы не хотели платить за подписку и редко пользовались ChatGPT (или вообще не пользовались) — сейчас самое время пойти завести аккаунт. Новая модель доступна БЕСПЛАТНО, и для многих будет ощущаться как невероятный скачок — разумеется, если выбрать правильные…
Как бесплатным юзерам пользоваться o3-mini:
1) нужно зайти в аккаунт (это бесплатно, но нужен VPN из РФ) на chat.com
2) ввести свой запрос
3) нажать кнопочку «Reason» (на картинке)
4) Наслаждаться 10-60 секундами, пока модель думает над ответом
А если нажать кнопочку «Search», так она ещё и в интернете поищет! (правда пока функция экспериментальная и может плохо работать)
UPD: если кнопки нет — попробуйте а) обновить страницу б) перезайти в аккаунт в) сменить VPN (в EU пока у одного знакомого не работает). Если не помогло — попробуйте завтра, может быть конкретно до вас ещё не докатилось обновление.
1) нужно зайти в аккаунт (это бесплатно, но нужен VPN из РФ) на chat.com
2) ввести свой запрос
3) нажать кнопочку «Reason» (на картинке)
4) Наслаждаться 10-60 секундами, пока модель думает над ответом
А если нажать кнопочку «Search», так она ещё и в интернете поищет! (правда пока функция экспериментальная и может плохо работать)
UPD: если кнопки нет — попробуйте а) обновить страницу б) перезайти в аккаунт в) сменить VPN (в EU пока у одного знакомого не работает). Если не помогло — попробуйте завтра, может быть конкретно до вас ещё не докатилось обновление.
Сиолошная
5 дней назад в чате канала подписчик написал: Попробовал все LLM на игру в быки и коровы. Я загадываю число, они отгадывали. Нет... Llm не умеют думать. Они просто плетут кружево из слов Если вы не знали, или детство было давно, то Быки и Коровы — это простая…
Помните я писал про бенчмарк «Быки и коровы», где нужно угадывать, какое четырёхзначное число загадал пользователь? (ответы и валидация автоматические)
Ну так вот, бенчмарк — В С Ё!
Запустил o3-mini на нём, она разгадала ВСЕ 50 ЗАГАДОК (ограничение в 15 попыток, многие модели не укладываются и потому не разгадывают). Кроме того, среднее количество попыток — 6.06, в то время как математически оптимальное ~5.67. То есть модель прям ООООЧЕНЬ продвинулась в рассуждениях, не требующих знаний.
Для сравнения лучшая модель до этого o1-mini (полную не тестировал, очень дорого) решала лишь половину задач, и средняя длина цепочки была 8.4 хода (оценка по 500 задачам, достаточно точная). И это был лучший результат — все R1, Gemini, Claude не справлялись и с половиной (все метрики тут). То есть o3-mini очень хорошо помнит контекст, все прошлые шаги игры, делает из них выводы и движется в правильном направлении.
Так ещё и в форматировании ответов тоже нуль ошибок (у Reasoning-моделей с этим почему-то плохо, они стабильно забывают, что было в промпте — так глубоко уходят в свои мысли).
Ну так вот, бенчмарк — В С Ё!
Запустил o3-mini на нём, она разгадала ВСЕ 50 ЗАГАДОК (ограничение в 15 попыток, многие модели не укладываются и потому не разгадывают). Кроме того, среднее количество попыток — 6.06, в то время как математически оптимальное ~5.67. То есть модель прям ООООЧЕНЬ продвинулась в рассуждениях, не требующих знаний.
Для сравнения лучшая модель до этого o1-mini (полную не тестировал, очень дорого) решала лишь половину задач, и средняя длина цепочки была 8.4 хода (оценка по 500 задачам, достаточно точная). И это был лучший результат — все R1, Gemini, Claude не справлялись и с половиной (все метрики тут). То есть o3-mini очень хорошо помнит контекст, все прошлые шаги игры, делает из них выводы и движется в правильном направлении.
Так ещё и в форматировании ответов тоже нуль ошибок (у Reasoning-моделей с этим почему-то плохо, они стабильно забывают, что было в промпте — так глубоко уходят в свои мысли).
Сиолошная
Как бесплатным юзерам пользоваться o3-mini: 1) нужно зайти в аккаунт (это бесплатно, но нужен VPN из РФ) на chat.com 2) ввести свой запрос 3) нажать кнопочку «Reason» (на картинке) 4) Наслаждаться 10-60 секундами, пока модель думает над ответом А если…
По предварительной информации лимит использования o3-mini для бесплатных юзеров составляет 10 сообщений в 4 часа — по крайней мере в чате два человека получили схожие по таймеру ограничения, и у одного из них вылезло такое сообщение.