📢 GPT-4o-mini Hackathon для любителей и профессионалов AI 📢
Ogon.AI открывает регистрацию на уникальный онлайн-хакатон и приглашает всех желающих принять участие 🔥
🚀 Что вас ждет:
✔️ Вы разработаете AI-проект на базе GPT-4o-mini, который будет иметь практическую ценность
✔️ Получите поддержку экспертов хакатона и обратную связь от топ-менеджеров IT-компаний
✔️ Сможете проявить свои навыки и найти единомышленников
✔️ Получите помощь в превращении своего проекта в бизнес, открытии компании в подходящей юрисдикции, привлечении инвестиций
📅 Даты хакатона: 20 января 2025 — 27 января 2025
📍 Формат: Онлайн
👥 Участвуйте один, своей командой или в составе новой команды с другими участниками!
💡 Задача хакатона: разработать AI-ассистента с использованием модели GPT-4o-mini и расширенного контекстного окна (128,000 токенов) для практического и коммерчески ориентированного решения. Например:
➤ Ассистент по созданию резюме
➤ Психологический помощник
➤ Умный агрегатор новостей
➤ Ассистент для студентов по архивированию лекций
➤ Генератор маркетингового контента
➤ Ассистент для подготовки к собеседованию
➤ AI-помощник для стартапов
Эти идеи — лишь вдохновение. Креативность и нестандартный подход всегда приветствуются!
🎁 Призы: победители соберут индивидуальный набор призов из разных категорий (подарочные карты на AI-сервисах, платные курсы на образовательных платформах и другое) в рамках призового бюджета:
⭐️ 1 место: 1,500 USD
⭐️ 2 место: 1,000 USD
⭐️ 3 место: 500 USD
Также, каждая команда-финалист получает двухчасовую личную консультацию с топ-менеджерами Ogon.AI по интересующим вопросам бизнеса, стартапа!
Узнайте больше о команде Ogon.AI на сайте и о ближайшем GPT-4o-mini Hackathon на странице мероприятия.
Готовы принять вызов и вывести свой AI-проект на новый уровень? Регистрируйте свою команду по ссылке и присоединяйтесь к чату Telegram Ogon.AI Hackathons!
Ищете команду? Найдите ее в чате Telegram Ogon.AI Hackathons!
#промо
Ogon.AI открывает регистрацию на уникальный онлайн-хакатон и приглашает всех желающих принять участие 🔥
🚀 Что вас ждет:
✔️ Вы разработаете AI-проект на базе GPT-4o-mini, который будет иметь практическую ценность
✔️ Получите поддержку экспертов хакатона и обратную связь от топ-менеджеров IT-компаний
✔️ Сможете проявить свои навыки и найти единомышленников
✔️ Получите помощь в превращении своего проекта в бизнес, открытии компании в подходящей юрисдикции, привлечении инвестиций
📅 Даты хакатона: 20 января 2025 — 27 января 2025
📍 Формат: Онлайн
👥 Участвуйте один, своей командой или в составе новой команды с другими участниками!
💡 Задача хакатона: разработать AI-ассистента с использованием модели GPT-4o-mini и расширенного контекстного окна (128,000 токенов) для практического и коммерчески ориентированного решения. Например:
➤ Ассистент по созданию резюме
➤ Психологический помощник
➤ Умный агрегатор новостей
➤ Ассистент для студентов по архивированию лекций
➤ Генератор маркетингового контента
➤ Ассистент для подготовки к собеседованию
➤ AI-помощник для стартапов
Эти идеи — лишь вдохновение. Креативность и нестандартный подход всегда приветствуются!
🎁 Призы: победители соберут индивидуальный набор призов из разных категорий (подарочные карты на AI-сервисах, платные курсы на образовательных платформах и другое) в рамках призового бюджета:
⭐️ 1 место: 1,500 USD
⭐️ 2 место: 1,000 USD
⭐️ 3 место: 500 USD
Также, каждая команда-финалист получает двухчасовую личную консультацию с топ-менеджерами Ogon.AI по интересующим вопросам бизнеса, стартапа!
Узнайте больше о команде Ogon.AI на сайте и о ближайшем GPT-4o-mini Hackathon на странице мероприятия.
Готовы принять вызов и вывести свой AI-проект на новый уровень? Регистрируйте свою команду по ссылке и присоединяйтесь к чату Telegram Ogon.AI Hackathons!
Ищете команду? Найдите ее в чате Telegram Ogon.AI Hackathons!
#промо
This media is not supported in your browser
VIEW IN TELEGRAM
Pika 2.0 теперь можно попробовать бесплатно
Такой аттракцион будет продолжаться ещё 66 часов. В теории лимитов нету и доступны даже ингредиенты, но видосы генерятся часами. Обещают докинуть ещё серваков чтобы попробовать смогло больше людей.
pika.art
@ai_newz
Такой аттракцион будет продолжаться ещё 66 часов. В теории лимитов нету и доступны даже ингредиенты, но видосы генерятся часами. Обещают докинуть ещё серваков чтобы попробовать смогло больше людей.
pika.art
@ai_newz
Вчера Google показал превью своего конкурента o1. Пока он работает на основе Flash модели, а сам процесс размышлений показывается, в отличие от той же o1. Модель неплохая, но сильно уж маленькая, из-за чего есть лёгкие проблемы.
Судя по недавним превью (r1 lite, QwQ), даже у компаний второго эшелона уже есть рецепты для inference time compute scaling работающие на маленьких модельках. Сейчас они их дорабатывают и потом будут масштабировать на модельки побольше. Через пару месяцев у всей индустрии будет "o1 дома".
o1 - это сейчас последнее оставшееся большое технологическое преимущество OpenAI. Veo 2 уверенно бьёт Sora, в генерации картинок их не обскакал только ленивый и т.д. А ведь у других лаб есть свои заметные преимущества, которые OpenAI всё не может реплицировать - к примеру, гигантский контекст Gemini и посттрейн магия Claude.
И в этот момент из OpenAI гуськом уходят очень заметные кадры - вон вчера ушёл автор оригинальной GPT, Alec Radford, перед ним ушли CTO и CRO компании. И это только за последние три месяца, а до этого была вся драма с Ильёй Суцкевером.
Через полчаса у OpenAI будет последний из их 12 стримов. Хоть анонсы они и затянули - вчера, вместо интересных анонсов, чел просто играл на саксофоне, но на последнем явно покажут что-то особенное. По слухам, покажут o3 - сиквел к o1 (название O2 занято британским мобильным оператором).
Непонятно, хватит ли этого, чтобы заметно оторваться от Gemini 2.0 Ultra с включённым Thinking или от результатов гигантского трейнинг рана Anthropic, который уже несколько месяцев ощущают все пользователи Claude (другого объяснения этим всем лагам я не знаю). Но главный вопрос - сможет ли OpenAI, с такой текущей кадров, совершить следующий большой прорыв и сохранить лидерство.
@ai_newz
Судя по недавним превью (r1 lite, QwQ), даже у компаний второго эшелона уже есть рецепты для inference time compute scaling работающие на маленьких модельках. Сейчас они их дорабатывают и потом будут масштабировать на модельки побольше. Через пару месяцев у всей индустрии будет "o1 дома".
o1 - это сейчас последнее оставшееся большое технологическое преимущество OpenAI. Veo 2 уверенно бьёт Sora, в генерации картинок их не обскакал только ленивый и т.д. А ведь у других лаб есть свои заметные преимущества, которые OpenAI всё не может реплицировать - к примеру, гигантский контекст Gemini и посттрейн магия Claude.
И в этот момент из OpenAI гуськом уходят очень заметные кадры - вон вчера ушёл автор оригинальной GPT, Alec Radford, перед ним ушли CTO и CRO компании. И это только за последние три месяца, а до этого была вся драма с Ильёй Суцкевером.
Через полчаса у OpenAI будет последний из их 12 стримов. Хоть анонсы они и затянули - вчера, вместо интересных анонсов, чел просто играл на саксофоне, но на последнем явно покажут что-то особенное. По слухам, покажут o3 - сиквел к o1 (название O2 занято британским мобильным оператором).
Непонятно, хватит ли этого, чтобы заметно оторваться от Gemini 2.0 Ultra с включённым Thinking или от результатов гигантского трейнинг рана Anthropic, который уже несколько месяцев ощущают все пользователи Claude (другого объяснения этим всем лагам я не знаю). Но главный вопрос - сможет ли OpenAI, с такой текущей кадров, совершить следующий большой прорыв и сохранить лидерство.
@ai_newz
o3 и o3-mini - разрыв бенчмарков
Это ещё не AGI, но точно SOTA на всём что только можно. Стоимость тоже гигантская - на решение одного единственного таска могут уйти тысячи долларов.
🎓 SOTA результаты по Frontier Math выросли с 2% до 25%.
💻 На SWE-Bench модель набрала 71,7%. Чтобы вы понимали, в этом году стартап смог поднять 200 миллионов долларов с результатами 13,86%.
👨💻 ELO на Codeforces - 2727, в мире всего у 150 человек больше ELO.
🔥На ARC-AGI модель набрала 87,5%, бенчмарк пять лет не могли покорить. Авторы уже партнёрятся с OpenAI чтобы создать вторую версию бенча.
👨🎓 На GPQA и AIME тоже очень хороший прогресс.
Сегодня дают доступ ресёрчерам безопасности к o3-mini, простым смертным доступ к o3-mini дадут в конце января, к o3 чуть позже.
@ai_newz
Это ещё не AGI, но точно SOTA на всём что только можно. Стоимость тоже гигантская - на решение одного единственного таска могут уйти тысячи долларов.
🎓 SOTA результаты по Frontier Math выросли с 2% до 25%.
💻 На SWE-Bench модель набрала 71,7%. Чтобы вы понимали, в этом году стартап смог поднять 200 миллионов долларов с результатами 13,86%.
👨💻 ELO на Codeforces - 2727, в мире всего у 150 человек больше ELO.
🔥На ARC-AGI модель набрала 87,5%, бенчмарк пять лет не могли покорить. Авторы уже партнёрятся с OpenAI чтобы создать вторую версию бенча.
👨🎓 На GPQA и AIME тоже очень хороший прогресс.
Сегодня дают доступ ресёрчерам безопасности к o3-mini, простым смертным доступ к o3-mini дадут в конце января, к o3 чуть позже.
@ai_newz
А вот и несколько задачек из ARC-AGI, на которых валится o3, даже в high-compute режиме (где на одну задачу уходят десятки миллионов токенов, стоимостью в несколько тысяч долларов).
Самим порешать эти головоломки можно здесь. Задачи со скринов: 1, 2, 3. За сколько времени у вас их выйдет решить?
@ai_newz
Самим порешать эти головоломки можно здесь. Задачи со скринов: 1, 2, 3. За сколько времени у вас их выйдет решить?
@ai_newz
Нейродайджест за неделю (#49)
OpenAI
- Анлим Sora — теперь даже базовым подписчикам доступна безлимитная генерация видео в "медленной очереди", но лишь на праздники. Нужен не европейский VPN.
- Search GPT — минорный апдейт поиска от все тех же OpenAI (со стрима).
- OpenAI API — добавили o1, понизили цены и ещё пару плюшек.
- Информатор по делу об авторском праве мёртв — бедного парня нашли у себя дома, СМИ обвиняют OpenAI.
- +1-800-242-8478 — звоним ChatGPT и... пишем в WhatsApp. Мем.
- Thinking от Google — конкуренты OpenAI наступают на пятки со своими "думающими" модельками.
- o3 и o3-mini — модель на порядок превосходит предшественника o1.Правда, для прохождения бенчмарков нужно всего лишь $1,5 млн .
- Капча против AGI — убер-машина решает такие задачки, тратя пару тысяч $$$ за штуку. А как быстро вы сможете их решить?
Все, стримы OpenAI закончились😮💨
LLM
- Devin — AI-джун за $500 в месяц. Спорный стартап, пока неясно, как будет выигрывать конкуренцию у тех же OpenAI.
- Три опенсорс модели для русского языка — LLM, текстовый эмбеддинг и speech2text.
- Бесплатный GitHub Copilot — 2000 дополнений кода на месяц в VS Code.
Другие генеративные модели
- Veo 2 — Google подготовились к анонсам OpenAI лучше, чем сами OpenAI. Их text2video моделька по тестам (и теперь уже по зрительским симпатиям) опережает недавно вышедшую и теперь безлимитно доступную даже в базовой подписке Sora.
- ElevenLabs Flash 2.5 — научились генерить голоса в реальном времени, довольно правдоподобно, но это, конечно, не Voice Mod.
- Pika 2.0 бесплатно — кажется, поезд уже ушёл. Но не расстраивайтесь, Pika, как всегда, облажались и не завезли компьюта на такое количество народа. Так что, если вам повезло получить хотя бы пару видео, считайте себя счастливчиком.
> Читать дайджест #48
#дайджест
@ai_newz
OpenAI
- Анлим Sora — теперь даже базовым подписчикам доступна безлимитная генерация видео в "медленной очереди", но лишь на праздники. Нужен не европейский VPN.
- Search GPT — минорный апдейт поиска от все тех же OpenAI (со стрима).
- OpenAI API — добавили o1, понизили цены и ещё пару плюшек.
- Информатор по делу об авторском праве мёртв — бедного парня нашли у себя дома, СМИ обвиняют OpenAI.
- +1-800-242-8478 — звоним ChatGPT и... пишем в WhatsApp. Мем.
- Thinking от Google — конкуренты OpenAI наступают на пятки со своими "думающими" модельками.
- o3 и o3-mini — модель на порядок превосходит предшественника o1.
- Капча против AGI — убер-машина решает такие задачки, тратя пару тысяч $$$ за штуку. А как быстро вы сможете их решить?
Все, стримы OpenAI закончились😮💨
LLM
- Devin — AI-джун за $500 в месяц. Спорный стартап, пока неясно, как будет выигрывать конкуренцию у тех же OpenAI.
- Три опенсорс модели для русского языка — LLM, текстовый эмбеддинг и speech2text.
- Бесплатный GitHub Copilot — 2000 дополнений кода на месяц в VS Code.
Другие генеративные модели
- Veo 2 — Google подготовились к анонсам OpenAI лучше, чем сами OpenAI. Их text2video моделька по тестам (и теперь уже по зрительским симпатиям) опережает недавно вышедшую и теперь безлимитно доступную даже в базовой подписке Sora.
- ElevenLabs Flash 2.5 — научились генерить голоса в реальном времени, довольно правдоподобно, но это, конечно, не Voice Mod.
- Pika 2.0 бесплатно — кажется, поезд уже ушёл. Но не расстраивайтесь, Pika, как всегда, облажались и не завезли компьюта на такое количество народа. Так что, если вам повезло получить хотя бы пару видео, считайте себя счастливчиком.
> Читать дайджест #48
#дайджест
@ai_newz
Media is too big
VIEW IN TELEGRAM
Да, что этот робопёс себе позволяет?!
Вот здесь я совсем недавно на ECCV видел его вживую. А выше он же выполняет дикие трюки.
Unitree B2-W обойдётся любому желающему приобрести такого питомца в $150,000. Да, недешёвая выходит порода. Эта версия примечательна гибридом ног и колёс, вместо просто "палок", как у Boston Dynamics. Чуваки решили не отказываться от колёс — всё-таки это самый эффективный способ передвижения, которым природа обделила всех животных. Вышел эдакий гибрид ног с колёсами, совмещающий в себе проходимость ног и скорость колёс.
Кстати, Unitree выложили в опенсорс всё, на чём и как тренируют своих ботов, включая скрипты для Isaac Gym и датасеты.
Ну и, пользуясь случаем, напоминаю, что на эту зверюгу (другой версии) какие-то психи уже навесили ОГНЕМЕТ! и выпустили в продажу.
@ai_newz
Вот здесь я совсем недавно на ECCV видел его вживую. А выше он же выполняет дикие трюки.
Unitree B2-W обойдётся любому желающему приобрести такого питомца в $150,000. Да, недешёвая выходит порода. Эта версия примечательна гибридом ног и колёс, вместо просто "палок", как у Boston Dynamics. Чуваки решили не отказываться от колёс — всё-таки это самый эффективный способ передвижения, которым природа обделила всех животных. Вышел эдакий гибрид ног с колёсами, совмещающий в себе проходимость ног и скорость колёс.
Кстати, Unitree выложили в опенсорс всё, на чём и как тренируют своих ботов, включая скрипты для Isaac Gym и датасеты.
Ну и, пользуясь случаем, напоминаю, что на эту зверюгу (другой версии) какие-то психи уже навесили ОГНЕМЕТ! и выпустили в продажу.
@ai_newz
Media is too big
VIEW IN TELEGRAM
Генерацию видео запустили на телефоне
Выглядит простенько, но 5 секундное видео генерится прямо на iPhone 16 Pro Max всего пять секунд, для небольших анимированных стикеров сойдёт.
За основу взяли Stable Diffusion 1.5 и VAE декодер из Open-Sora, которые крайне сильно запрунили, получив гигантский прирост по скорости - 10x в первом случае и аж 50x во втором. Модели старые и далеки от SOTA, но если кто-то в лоб применит такой же агрессивный прунинг, напрмер к Hunyuan или другим открытыми видео-моделями, то он будет очень сильно съедать качество.
Сайт проекта
@ai_newz
Выглядит простенько, но 5 секундное видео генерится прямо на iPhone 16 Pro Max всего пять секунд, для небольших анимированных стикеров сойдёт.
За основу взяли Stable Diffusion 1.5 и VAE декодер из Open-Sora, которые крайне сильно запрунили, получив гигантский прирост по скорости - 10x в первом случае и аж 50x во втором. Модели старые и далеки от SOTA, но если кто-то в лоб применит такой же агрессивный прунинг, напрмер к Hunyuan или другим открытыми видео-моделями, то он будет очень сильно съедать качество.
Сайт проекта
@ai_newz
QVQ - 72B Reasoner от команды Qwen
Моделька умеет в визуальные инпуты, по мультимодальным бенчам обгоняет 4o, но отстаёт от o1. Результатов обычных бенчей не публикуют, так же как и было с Qwen 2 VL 72B, на которой, похоже, QVQ основана.
Reasoner модели - явно новая парадигма скейлинга, которой теперь занимаются примерно все, ждите подобные превью и релизы в ближайшие пару месяцев от всех лаб.
Веса
Демо
P.S. Китайцы что-то очень быстро всё релизят, сегодня дропнулась DeepSeek V3 на 685B параметров, пока без деталей, но уже доступна в чате.
@ai_newz
Моделька умеет в визуальные инпуты, по мультимодальным бенчам обгоняет 4o, но отстаёт от o1. Результатов обычных бенчей не публикуют, так же как и было с Qwen 2 VL 72B, на которой, похоже, QVQ основана.
Reasoner модели - явно новая парадигма скейлинга, которой теперь занимаются примерно все, ждите подобные превью и релизы в ближайшие пару месяцев от всех лаб.
Веса
Демо
P.S. Китайцы что-то очень быстро всё релизят, сегодня дропнулась DeepSeek V3 на 685B параметров, пока без деталей, но уже доступна в чате.
@ai_newz
🎄Как всегда получаю на рождество книги про AI. Вот такую получил в подарок в этом году. Так как я живу в Европе, то по сути успеваю отпраздновать оба рождества:)
Книга Ника Бострома, профессора из Оксфорда, про философский взгляд на развитие AI. Ещё не читал, но уже интересно.
Забавно, что Бостром в 2014 году, когда вышла эта книга, очень много говорил про риски и скорее предостерегал о негативных последствиях развития AI, а сейчас он пришел к более сбалансированному взгляду и считает, что если чрезмерно бояться прогресса технологий, то это может значительно замедлить развитие человечества.
Если кто-то читал эту книгу, напишите в комментах, что думаете про неё.
Кстати, накидайте бустов, а то не могу постить стори.
#книги #books
@ai_newz
Книга Ника Бострома, профессора из Оксфорда, про философский взгляд на развитие AI. Ещё не читал, но уже интересно.
Забавно, что Бостром в 2014 году, когда вышла эта книга, очень много говорил про риски и скорее предостерегал о негативных последствиях развития AI, а сейчас он пришел к более сбалансированному взгляду и считает, что если чрезмерно бояться прогресса технологий, то это может значительно замедлить развитие человечества.
Если кто-то читал эту книгу, напишите в комментах, что думаете про неё.
Кстати, накидайте бустов, а то не могу постить стори.
#книги #books
@ai_newz
DeepSeek V3 - новый опенсорс лидер
На общих бенчах тягается с Sonnet 3.5 и GPT-4o, уверенно оставляя Llama 405B позади. Но особенно хорошо моделька показывает себя в кодинге и математике, что не удивительно - модель дистиллировали из R1, конкурента o1 от DeepSeek. А вот по бенчам для агентов Claude всё ещё значительно лучше.
Ушло на тренировку всего 2.78 миллиона H800 часов, что очень мало - у Colossus, суперкомпьютера xAI, на тренировку такой модели даже сейчас уйдёт всего день, а ведь его хотят увеличить в 10 раз. Датасет 14.8 триллионах токенов. Не смотря на то что тренировали в fp8, тренировка была на удивление гладкая - им ни разу во время тренировки не пришлось ничего откатывать.
Архитектурно модель это преемник DeepSeek V2, но заметно больше - 671 миллиард активных параметров, из которых 37 миллиардов активных (у меня есть пост о том как это работает). Теперь моделька может опционально предсказывать два токена за раз, что даёт 1.8x прирост в скорости. Устройство MoE слоя тоже слегка изменили - softmax в роутере заменили на сигмоид, а общий эксперт теперь всего один на слой. Практически убрали дополнительные лосс функции, которые нужны были для балансировки такого большого MoE, из-за чего увеличилась точность. Вот пейпер о том как это работает.
До 8 февраля стоимость будет такая же как у V2 ($0.14/$0.28), а после её планируют заметно повысить - до $0.27/$1.10 за миллион токенов. Цена за закэшированные токены на вход тоже вырастает - с $0.014 до $0.07 за миллион токенов, но само кэширование бесплатное и автоматическое, да и хранят кэш целые сутки (у OpenAI и Anthropic по 5-10 минут, у Google платится за час кэша). Позволить себе так играться с ценами они могут - ни один провайдер до сих пор не запустил инференс DeepSeek V2 за адекватные деньги, надеюсь сейчас ситуация с этим улучшится. Даже с таким повышением цен, модель будет очень дешёвая - в 10 раз дешевле Sonnet 3.5 и 4o.
Веса
Пейпер
Чат (со вчерашнего дня на DeepSeek V3)
@ai_newz
На общих бенчах тягается с Sonnet 3.5 и GPT-4o, уверенно оставляя Llama 405B позади. Но особенно хорошо моделька показывает себя в кодинге и математике, что не удивительно - модель дистиллировали из R1, конкурента o1 от DeepSeek. А вот по бенчам для агентов Claude всё ещё значительно лучше.
Ушло на тренировку всего 2.78 миллиона H800 часов, что очень мало - у Colossus, суперкомпьютера xAI, на тренировку такой модели даже сейчас уйдёт всего день, а ведь его хотят увеличить в 10 раз. Датасет 14.8 триллионах токенов. Не смотря на то что тренировали в fp8, тренировка была на удивление гладкая - им ни разу во время тренировки не пришлось ничего откатывать.
Архитектурно модель это преемник DeepSeek V2, но заметно больше - 671 миллиард активных параметров, из которых 37 миллиардов активных (у меня есть пост о том как это работает). Теперь моделька может опционально предсказывать два токена за раз, что даёт 1.8x прирост в скорости. Устройство MoE слоя тоже слегка изменили - softmax в роутере заменили на сигмоид, а общий эксперт теперь всего один на слой. Практически убрали дополнительные лосс функции, которые нужны были для балансировки такого большого MoE, из-за чего увеличилась точность. Вот пейпер о том как это работает.
До 8 февраля стоимость будет такая же как у V2 ($0.14/$0.28), а после её планируют заметно повысить - до $0.27/$1.10 за миллион токенов. Цена за закэшированные токены на вход тоже вырастает - с $0.014 до $0.07 за миллион токенов, но само кэширование бесплатное и автоматическое, да и хранят кэш целые сутки (у OpenAI и Anthropic по 5-10 минут, у Google платится за час кэша). Позволить себе так играться с ценами они могут - ни один провайдер до сих пор не запустил инференс DeepSeek V2 за адекватные деньги, надеюсь сейчас ситуация с этим улучшится. Даже с таким повышением цен, модель будет очень дешёвая - в 10 раз дешевле Sonnet 3.5 и 4o.
Веса
Пейпер
Чат (со вчерашнего дня на DeepSeek V3)
@ai_newz