Что показали сегодня, анонсы в основном для разработчиков:
- O1 модели теперь поддерживают строгие JSON схемы на выходе (и это не повлияет на качество работы модели) и Functions calling (это когда модель должна выбрать какой-то скрипт сама по себе во время ответа), фичи которые давно есть у других моделей OpenAI
- Упомянули «Developers Messages» для O1 — штука, которая позволяет разработчиком «направить» модель в нужную сторону в процессе ответа, что-то вроде второго системного промпта, но слабее
- «Reasoning Effort» — вы теперь можете указать сколько времени O1-модель будет «размышлять» перед тем как ответить, ответы будут лучше, но дороже или можно запретить ей слишком много думать перед ответом пользователю
- O1 API теперь поддерживает картинки на вход
- Advanced Voice Mode API теперь работает с WebRTC, то есть голосового ассистента OpenAI будет проще встраивать на веб-страницы без особых мучений (12 строк кода и готово)
- Наконец-то цены на Advanced Voice Mode API понизили на 60%, и теперь доступна новая, в 10 раз дешевле, mini-аудио моделька
- Показали новый способ файнтюна моделей «Prefence Finetuning» — можно тренировать на парах данных, что нравится и не нравится в ответе модели, доступно с сегодня для gpt4o & gpt4o-mini
- Вышли новые SDK — для Go и для Java
- O1 модели теперь поддерживают строгие JSON схемы на выходе (и это не повлияет на качество работы модели) и Functions calling (это когда модель должна выбрать какой-то скрипт сама по себе во время ответа), фичи которые давно есть у других моделей OpenAI
- Упомянули «Developers Messages» для O1 — штука, которая позволяет разработчиком «направить» модель в нужную сторону в процессе ответа, что-то вроде второго системного промпта, но слабее
- «Reasoning Effort» — вы теперь можете указать сколько времени O1-модель будет «размышлять» перед тем как ответить, ответы будут лучше, но дороже или можно запретить ей слишком много думать перед ответом пользователю
- O1 API теперь поддерживает картинки на вход
- Advanced Voice Mode API теперь работает с WebRTC, то есть голосового ассистента OpenAI будет проще встраивать на веб-страницы без особых мучений (12 строк кода и готово)
- Наконец-то цены на Advanced Voice Mode API понизили на 60%, и теперь доступна новая, в 10 раз дешевле, mini-аудио моделька
- Показали новый способ файнтюна моделей «Prefence Finetuning» — можно тренировать на парах данных, что нравится и не нравится в ответе модели, доступно с сегодня для gpt4o & gpt4o-mini
- Вышли новые SDK — для Go и для Java
Вышел подкаст с моим участием в рамках медиа премии ШУМ от Росмолодежи.
Пообщались на темы про ИИ: когда заменит, кого, как быстро и несколько других интересных тем.
Посмотреть можно тут
https://vkvideo.ru/video-226874249_456239105
Пообщались на темы про ИИ: когда заменит, кого, как быстро и несколько других интересных тем.
Посмотреть можно тут
https://vkvideo.ru/video-226874249_456239105
VK Видео
Искусственный интеллект враг или друг? | ЭКСПЕРТ ПО ИИ МИХАИЛ ЛАРЬКИН
Поговорили о настоящем и будущем искусственного интеллекта и тот как он повлияет на наш мир: – Какие профессии заменит ИИ? – Какие изменения ждут нас в ближайшие годы? – Что можно автоматизировать уже сегодня? – Фишки и лайфхаки для эффективной работать с…
This media is not supported in your browser
VIEW IN TELEGRAM
ElevenLabs выпустил AI для быстрой генерации речи
Обновленная модель Flash генерирует речь за 75 миллисекунд и поддерживает 32 языка.
Flash доступна для интеграции в приложения через API.
https://x.com/elevenlabsio/status/1869462840941461941
Обновленная модель Flash генерирует речь за 75 миллисекунд и поддерживает 32 языка.
Flash доступна для интеграции в приложения через API.
https://x.com/elevenlabsio/status/1869462840941461941
Google выпустил конкурента ChatGPT o1
Gemini 2.0 Flash Thinking — первая модель рассуждений от Google. В компании утверждают, что новинка обучена «думать вслух». Благодаря этому, можно узнать, как модель пришла к тому или иному ответу.
Пробная бесплатная версия Gemini 2.0 Flash Thinking уже появилась в Google AI Studio https://aistudio.google.com/prompts/new_chat (с российских IP-адресов недоступна).
https://9to5google.com/2024/12/19/gemini-2-0-flash-thinking/
Gemini 2.0 Flash Thinking — первая модель рассуждений от Google. В компании утверждают, что новинка обучена «думать вслух». Благодаря этому, можно узнать, как модель пришла к тому или иному ответу.
Пробная бесплатная версия Gemini 2.0 Flash Thinking уже появилась в Google AI Studio https://aistudio.google.com/prompts/new_chat (с российских IP-адресов недоступна).
https://9to5google.com/2024/12/19/gemini-2-0-flash-thinking/
Показали новые o3 и o3-mini модели (o2 уже занятый бренд):
— Модели пока выпустили в Public Safety Tests, то есть ученые смогут помочь их тестировать, а мы не сможем помочь их ломать
— o3 работает на уровне доктора наук и иногда даже лучше в разных бенчмарках
— o3 прошла ARC-бенчмарк на 87.5%, сложный бенчмарк на котором тестируют потенциальные AGI, там много вопросов и некоторые похожие на IQ-тесты или на загадки; кожаные в этом тесте набирают ~85%, прошлый лучший результат был ~50%. То есть ARC-бенчмарк — пал.
— o3 работает также как и o1 в разных режимах: дольше думает, лучше ответ, но при этом и дороже. Пользователь может выбрать один из «думательных» пресетов сам.
— Модели пока выпустили в Public Safety Tests, то есть ученые смогут помочь их тестировать, а мы не сможем помочь их ломать
— o3 работает на уровне доктора наук и иногда даже лучше в разных бенчмарках
— o3 прошла ARC-бенчмарк на 87.5%, сложный бенчмарк на котором тестируют потенциальные AGI, там много вопросов и некоторые похожие на IQ-тесты или на загадки; кожаные в этом тесте набирают ~85%, прошлый лучший результат был ~50%. То есть ARC-бенчмарк — пал.
— o3 работает также как и o1 в разных режимах: дольше думает, лучше ответ, но при этом и дороже. Пользователь может выбрать один из «думательных» пресетов сам.
И вот суммарно все дни, что показали – для тех кто пропустил:
ℹ️ День 1/12:
• Модель O1 доступна для всех: более быстрая, умная, с поддержкой изображений
• Подписка за €230/мес: безлимитный доступ к O1/O1-mini/GPT-4o, Advanced Voice Mode и O1 Pro (более ресурсоемкий режим)
ℹ️ День 2/12:
• O1 и O1-mini можно файнтюнить (настраивать под конкретную область с небольшим набором примеров)
• Доступно с 2025 года
ℹ️ День 3/12:
• Релиз Sora (sora.com) и Sora Turbo (упрощенная, быстрая модель)
• Интеграция с редактором видео, встроенные инструменты
• Лимиты для генераций в месяц зависят от тарифного плана
ℹ️ День 4/12:
• Обновление ChatGTP Canvas: умный интерфейс редактирования текстов и кода в реальном времени, поддержка кастомных GPT-моделей и возможность запуска Python-кода
ℹ️ День 5/12:
• Интеграция ChatGPT с Mac, iOS и iPad на уровне ОС (ничего принципиально нового)
ℹ️ День 6/12:
• Advanced Voice Mode теперь поддерживает видео-стрим
• Можно вместе решать задачи, кодить или готовить, используя видео или шаринг экрана
• Добавлен голосовой “Санта” в ChatGPT
ℹ️ День 7/12:
• Появились “Проекты” в ChatGPT: загрузка документов, кастомные инструкции, организация чатов
ℹ️ День 8/12:
• Улучшенный поиск в ChatGPT, доступен и для бесплатных пользователей
• Можно использовать поиск во время голосового общения и сделать его браузерным поисковиком по умолчанию
ℹ️ День 9/12:
• O1-модели: строгий JSON формат, Functions calling, Developers Messages, настройка “Reasoning Effort”
• O1 API поддерживает картинки на вход
• Advanced Voice Mode API поддерживает WebRTC, цены снижены
• Preference Finetuning: обучение модели на парах данных «нравится/не нравится»
• Новые SDK для Go и Java 10.
ℹ️ День 10/12:
• Можно звонить по номеру в США или писать через WhatsApp и общаться с ChatGPT голосом или текстом 11.
ℹ️ День 11/12:
• Ничего нового
• Показали возможность для ChatGPT “видеть” запущенные приложения 12.
ℹ️ День 12/12:
• Новые модели o3 и o3-mini в стадии Public Safety Tests
• o3 показывает результаты на уровне доктора наук, превосходит людей в ARC-бенчмарке (~87.5%)
• Есть пресеты “времени на размышление”, влияющие на стоимость и качество ответа
• Модель O1 доступна для всех: более быстрая, умная, с поддержкой изображений
• Подписка за €230/мес: безлимитный доступ к O1/O1-mini/GPT-4o, Advanced Voice Mode и O1 Pro (более ресурсоемкий режим)
• O1 и O1-mini можно файнтюнить (настраивать под конкретную область с небольшим набором примеров)
• Доступно с 2025 года
• Релиз Sora (sora.com) и Sora Turbo (упрощенная, быстрая модель)
• Интеграция с редактором видео, встроенные инструменты
• Лимиты для генераций в месяц зависят от тарифного плана
• Обновление ChatGTP Canvas: умный интерфейс редактирования текстов и кода в реальном времени, поддержка кастомных GPT-моделей и возможность запуска Python-кода
• Интеграция ChatGPT с Mac, iOS и iPad на уровне ОС (ничего принципиально нового)
• Advanced Voice Mode теперь поддерживает видео-стрим
• Можно вместе решать задачи, кодить или готовить, используя видео или шаринг экрана
• Добавлен голосовой “Санта” в ChatGPT
• Появились “Проекты” в ChatGPT: загрузка документов, кастомные инструкции, организация чатов
• Улучшенный поиск в ChatGPT, доступен и для бесплатных пользователей
• Можно использовать поиск во время голосового общения и сделать его браузерным поисковиком по умолчанию
• O1-модели: строгий JSON формат, Functions calling, Developers Messages, настройка “Reasoning Effort”
• O1 API поддерживает картинки на вход
• Advanced Voice Mode API поддерживает WebRTC, цены снижены
• Preference Finetuning: обучение модели на парах данных «нравится/не нравится»
• Новые SDK для Go и Java 10.
• Можно звонить по номеру в США или писать через WhatsApp и общаться с ChatGPT голосом или текстом 11.
• Ничего нового
• Показали возможность для ChatGPT “видеть” запущенные приложения 12.
• Новые модели o3 и o3-mini в стадии Public Safety Tests
• o3 показывает результаты на уровне доктора наук, превосходит людей в ARC-бенчмарке (~87.5%)
• Есть пресеты “времени на размышление”, влияющие на стоимость и качество ответа
Please open Telegram to view this post
VIEW IN TELEGRAM
o3 на 175 месте в Codeforces, то есть примерно 175й сильнейший программист во всем мире.
Это лучше 99,9% участников рейтинга (а все из них — это профессиональные программисты).
Живые участники рейтинга, у которых с 1 по 100 место — это люди, которые выигрывали золотые медали по информатике и продолжали профессионально участвовать в соревнованиях после школы/универа.
Это лучше 99,9% участников рейтинга (а все из них — это профессиональные программисты).
Живые участники рейтинга, у которых с 1 по 100 место — это люди, которые выигрывали золотые медали по информатике и продолжали профессионально участвовать в соревнованиях после школы/универа.
Новая работа о том, какие профессии будут, а какие не будут заменены ИИ.
В топе — учителя, аналитики, юристы. Последние — ожидаемо, заводчане, строители и танцоры.
https://arxiv.org/pdf/2303.01157
В топе — учителя, аналитики, юристы. Последние — ожидаемо, заводчане, строители и танцоры.
https://arxiv.org/pdf/2303.01157
DeepSeek выпустили третью версию, и она реально крутая! LLM обгоняет GPT-4o и Claude 3.5 Sonnet по большинству бенчмарков, при этом оставаясь полностью открытой.
Что нового:
Модель практически безлимитна - разработчики уже запускают по 100 параллельных потоков запросов без особых проблем.
Попробовать можно на официальном сайте или через API.
Код и документация: GitHub
Научная статья: PDF
2025-й, похоже, действительно станет годом открытых моделей!
Что нового:
- Скорость выросла в 3 раза - до 60 токенов в секунду
- Полная обратная совместимость по API
- Доступ к интернету из коробки
- Открытый исходный код и документация
- До 8 февраля использование по
цене v2!
Модель практически безлимитна - разработчики уже запускают по 100 параллельных потоков запросов без особых проблем.
Попробовать можно на официальном сайте или через API.
Код и документация: GitHub
Научная статья: PDF
2025-й, похоже, действительно станет годом открытых моделей!
Китайский конкурент GPT-01: вызов OpenAI?
Китайцы не спят! DeepSeek представили R1 — мощную рассуждающую модель, которая уже наделала шума. Она вдвое сильнее своей предшественницы (DeepSeek-V3) и уверенно обходит OpenAI в задачах математики и программирования.
Да, Sam Altman, кажется, получил серьезного соперника.
И знаешь, что самое крутое?
Модель доступна для бесплатного тестирования!
Тестируем
Что это значит для нас?
2025 — это год рассуждающих моделей. Гонки только начинаются, и ключевая задача для нас — научиться работать с ними по-новому.
Тренд очевиден: умение адаптироваться под новые технологии — это твоя суперсила в ближайшие годы.
Китайцы не спят! DeepSeek представили R1 — мощную рассуждающую модель, которая уже наделала шума. Она вдвое сильнее своей предшественницы (DeepSeek-V3) и уверенно обходит OpenAI в задачах математики и программирования.
Да, Sam Altman, кажется, получил серьезного соперника.
И знаешь, что самое крутое?
Модель доступна для бесплатного тестирования!
Тестируем
Что это значит для нас?
2025 — это год рассуждающих моделей. Гонки только начинаются, и ключевая задача для нас — научиться работать с ними по-новому.
Тренд очевиден: умение адаптироваться под новые технологии — это твоя суперсила в ближайшие годы.
🚀 $500 миллиардов на искусственный интеллект в США 💡
Дональд Трамп объявил о крупнейшем в истории частном инвестиционном проекте в области искусственного интеллекта – $500 миллиардов в рамках новой инициативы Stargate. В партнерстве участвуют OpenAI, SoftBank, и Oracle.
👷♂️ Основные факты:
- Stargate уже строит 10 дата-центров в Техасе, с планами расширения в другие штаты.
- Создание более 100,000 рабочих мест для американцев.
- Ожидается значительный прорыв в решении медицинских задач, включая лечение заболеваний.
🎙 Цитаты лидеров:
Дональд Трамп: "Мы создаём AI-инфраструктуру для Америки, чтобы опередить Китай и других конкурентов."
Ларри Эллисон (Oracle): "Искусственный интеллект открывает невероятные возможности для каждого американца."
Сэм Альтман (OpenAI): "Это станет самым важным проектом нашего времени."
📍 Цель Stargate – укрепить позиции США в мировой AI-индустрии и ускорить внедрение передовых технологий.
Что вы думаете об этом проекте? Поделитесь мнением в комментариях! 💬
Дональд Трамп объявил о крупнейшем в истории частном инвестиционном проекте в области искусственного интеллекта – $500 миллиардов в рамках новой инициативы Stargate. В партнерстве участвуют OpenAI, SoftBank, и Oracle.
👷♂️ Основные факты:
- Stargate уже строит 10 дата-центров в Техасе, с планами расширения в другие штаты.
- Создание более 100,000 рабочих мест для американцев.
- Ожидается значительный прорыв в решении медицинских задач, включая лечение заболеваний.
🎙 Цитаты лидеров:
Дональд Трамп: "Мы создаём AI-инфраструктуру для Америки, чтобы опередить Китай и других конкурентов."
Ларри Эллисон (Oracle): "Искусственный интеллект открывает невероятные возможности для каждого американца."
Сэм Альтман (OpenAI): "Это станет самым важным проектом нашего времени."
📍 Цель Stargate – укрепить позиции США в мировой AI-индустрии и ускорить внедрение передовых технологий.
Что вы думаете об этом проекте? Поделитесь мнением в комментариях! 💬
CBS News
Trump announces up to $500 billion in private sector AI infrastructure investment
President Trump announced billions in private sector investment by OpenAI, Softbank and Oracle to build AI infrastructure in the U.S.
🌟 Google только что выпустили новую модель Gemini 2.0 Flash Thinking
✅ Контекст с 1 миллионом токенов (5-х больше, чем o1 Pro)
#1 на арене чат-ботов👑
Модель показала наивысший результат, обогнав Gemini-Exp-1206
+ 17 очков прироста по сравнению с предыдущей контрольной точкой 1219
- №1 по всем направлениям (генерации кода), за исключением управления стилем.
• AIME: 73.3%
• GPQA: 74.2%
• MMMU: 75.4%
Модель доступна в ai-gradio
pip install --upgrade "ai-gradio[gemini]"
Тестить тут
✅ Контекст с 1 миллионом токенов (5-х больше, чем o1 Pro)
#1 на арене чат-ботов
Модель показала наивысший результат, обогнав Gemini-Exp-1206
+ 17 очков прироста по сравнению с предыдущей контрольной точкой 1219
- №1 по всем направлениям (генерации кода), за исключением управления стилем.
• AIME: 73.3%
• GPQA: 74.2%
• MMMU: 75.4%
Модель доступна в ai-gradio
pip install --upgrade "ai-gradio[gemini]"
Тестить тут
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI выпустит AI-агента для управления компьютером на этой неделе
Об этом сообщает The Information, основываясь на данных инсайдеров. Ранее в сети появилась информация о том, что следы AI-агента под кодовым названием «Оператор» заметили в приложении ChatGPT для macOS.
https://www.theinformation.com/briefings/openai-preps-operator-release-for-this-week
Об этом сообщает The Information, основываясь на данных инсайдеров. Ранее в сети появилась информация о том, что следы AI-агента под кодовым названием «Оператор» заметили в приложении ChatGPT для macOS.
https://www.theinformation.com/briefings/openai-preps-operator-release-for-this-week
This media is not supported in your browser
VIEW IN TELEGRAM
Operator — это новый AI-агент от OpenAI, который помогает решать рутинные задачи прямо в браузере. Закажите билеты, продукты или забронируйте столик, просто попросив его, а он выполнит всё самостоятельно с вашим контролем на каждом шаге.
Основные возможности Operator:
1. Работа с браузером:
• Автоматически выполняет задачи на сайтах (например, покупка билетов, заказ еды).
• Видит интерфейс сайтов через скриншоты, а не код страницы.
2. Интерактивность:
• Спрашивает подтверждение на каждом важном этапе.
• Можно вручную вмешаться в процесс, указав, что вы изменили, чтобы агент продолжил работу.
3. Облачный браузер:
• Работает на стороне OpenAI.
• Поддерживает несколько параллельных задач (аналог нескольких вкладок).
4. Интеграции:
• Поддерживает взаимодействие с крупными платформами для бронирования, покупок и других задач.
5. Кастомные сценарии:
• Создавайте регулярные задачи с кастомными инструкциями для быстрого запуска.
Ограничения:
• Не работает с банковскими транзакциями или высокорисковыми задачами.
• Это пока экспериментальный инструмент, больше помощник, чем полностью автономный агент.
Доступность:
• Входит в тариф Pro ($200 в месяц).
• Пока доступен только в США.
Подробнее: Официальная страница Operator
Доступно пользователям Pro уже сегодня через VPN США, остальным скоро
Please open Telegram to view this post
VIEW IN TELEGRAM