OpenAI снова украли чью-то идею стартапа?
Недавно прокатилась громкая новостью о том, что OpenAI покупает стартап Джони Айва – ex руководителя дизайна в Apple, который спроектировал внешний вид iPhone, MacBook, iPad и прочего. Стартап называется io, и Альтман тоже является его сооснователем.
Так вот теперь на OpenAI подает в суд компания под названием IYO. Ее основатель – бывший инженер Google – утверждает, что у него украли товарный знак: IYO и io – омофоны, то есть звучат абсолютно одинаково.
Ну звучат и звучат, скажете вы, что такого? Но дело в том, что (какое совпадение!) io собирается выпускать такие же продукты, над которыми работают в IYO.
IYO пишут что они делают «Устройство, которое позволит юзерам делать все то же, что и на компьютере и телефоне, но без использования физического интерфейса».
io: «Устройство, которое будет настолько же необходимым, как телефон и компьютер, но уведет людей от экранов» (цитата)
В общем, основателя IYO не устраивает, что он вкладывал миллионы в брендинг, которым теперь будет бесплатно пользоваться OpenAI. «Странно что это сделал именно Сэм. Мне казалось, он всегда был за защиту маленьких стартапов» – пишет парень. (На этот моменте закроем глаза на то, что с самим товарным знаком OpenAI история тоже не совсем чистая).
OpenAI называют иск «незрелым» и утверждают, что это недостойно даже суда. Но сегодня, почему-то, все-таки удалили все упоминания сотрудничества с io со своего сайта и соцсетей🧐
Недавно прокатилась громкая новостью о том, что OpenAI покупает стартап Джони Айва – ex руководителя дизайна в Apple, который спроектировал внешний вид iPhone, MacBook, iPad и прочего. Стартап называется io, и Альтман тоже является его сооснователем.
Так вот теперь на OpenAI подает в суд компания под названием IYO. Ее основатель – бывший инженер Google – утверждает, что у него украли товарный знак: IYO и io – омофоны, то есть звучат абсолютно одинаково.
Ну звучат и звучат, скажете вы, что такого? Но дело в том, что (какое совпадение!) io собирается выпускать такие же продукты, над которыми работают в IYO.
IYO пишут что они делают «Устройство, которое позволит юзерам делать все то же, что и на компьютере и телефоне, но без использования физического интерфейса».
io: «Устройство, которое будет настолько же необходимым, как телефон и компьютер, но уведет людей от экранов» (цитата)
В общем, основателя IYO не устраивает, что он вкладывал миллионы в брендинг, которым теперь будет бесплатно пользоваться OpenAI. «Странно что это сделал именно Сэм. Мне казалось, он всегда был за защиту маленьких стартапов» – пишет парень. (На этот моменте закроем глаза на то, что с самим товарным знаком OpenAI история тоже не совсем чистая).
OpenAI называют иск «незрелым» и утверждают, что это недостойно даже суда. Но сегодня, почему-то, все-таки удалили все упоминания сотрудничества с io со своего сайта и соцсетей
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
У нейросети Сбера GigaChat появился режим глубоких исследований
Искусственный интеллект берёт на себя сбор информации, анализ источников и написание текста. Как итог — ощутимая экономия времени при подготовке отчётов, обзоров и других материалов.
В начале работы появляется окно с базовыми настройками. Здесь нужно выбрать подходящий тон: объективный, академический, аналитический или оценивающий. А ещё есть опция ограничить мониторинг данных конкретным сайтом.
Финальный шаг — составить промпт. Придерживайтесь простых формулировок без лишней воды👇🏻
Получить экспертный ответ на любой вопрос.
Искусственный интеллект берёт на себя сбор информации, анализ источников и написание текста. Как итог — ощутимая экономия времени при подготовке отчётов, обзоров и других материалов.
В начале работы появляется окно с базовыми настройками. Здесь нужно выбрать подходящий тон: объективный, академический, аналитический или оценивающий. А ещё есть опция ограничить мониторинг данных конкретным сайтом.
Финальный шаг — составить промпт. Придерживайтесь простых формулировок без лишней воды👇🏻
Сделай прогноз по самым востребованным hard & soft skills на рынке труда через 10-15 лет в условиях развития ИИ. И как это повлияет на сферу образования?
Сравни причины падения Римской империи и современные угрозы для западной цивилизации
Получить экспертный ответ на любой вопрос.
А тем временем в Остине, спустя десятилетия обещаний Маска, наконец-то запустились робо-такси Tesla
С сегодняшнего дня прокатиться на беспилотном автомобиле в Остине может каждый, стоит это всего 4.20$ – плата фиксирована. Правда, пока что на пассажирском сидении все еще ездит сотрудник Tesla, выполняющий роль подстраховщика.
Напоминаем, что технология Tesla отличается от других уже работающих на рынке автономных такси типа Waymo от Alphabet/Google.
Если у остальных подход жестко инженерный (лидары, радары, HD-карты, 3D-карты, предсказание траекторий и прочее), то у Tesla это ИИ end-to-end. Они отказались от лидаров несколько лет назад и сейчас пользуются исключительно ванильными камерами. Изображения с камер обрабатывает единая модель Tesla FSD (Full Self-Driving) – и она же полностью принимает решения и планирует действия.
Это приближается к человеческому стилю вождения, но что по надежности – пока неясно. Посмотрим на отзывы с Остина.
С сегодняшнего дня прокатиться на беспилотном автомобиле в Остине может каждый, стоит это всего 4.20$ – плата фиксирована. Правда, пока что на пассажирском сидении все еще ездит сотрудник Tesla, выполняющий роль подстраховщика.
Напоминаем, что технология Tesla отличается от других уже работающих на рынке автономных такси типа Waymo от Alphabet/Google.
Если у остальных подход жестко инженерный (лидары, радары, HD-карты, 3D-карты, предсказание траекторий и прочее), то у Tesla это ИИ end-to-end. Они отказались от лидаров несколько лет назад и сейчас пользуются исключительно ванильными камерами. Изображения с камер обрабатывает единая модель Tesla FSD (Full Self-Driving) – и она же полностью принимает решения и планирует действия.
Это приближается к человеческому стилю вождения, но что по надежности – пока неясно. Посмотрим на отзывы с Остина.
SakanaAI опять светятся с интересной статьей: они предлагают новый способ обучать модели ризонингу
Модели умеют размышлять благодаря обучению с подкреплением. Обычно это выглядит так: модель учится решать сложные задачи, рассуждая, и получает вознаграждение, если приходит к правильному ответу. При этом часто после этого знания такой модели-учителя используются (дистилляция или cold start) для обучения модели-ученика, которая и становится конечным продуктом. Так было, например, с R1.
Sakana же предлагают обучать модель-учителя непосредственно учить других, вместо того, чтобы выучивать что-то самой:
➖ Во время обучения модель-учитель видит уже не только задачи, а сразу задачи с решениями. Ее цель – не научиться их решать, а максимально понятно объяснить решение ученику. Ну, то есть, реально отработать как обычный школьный учитель.
➖ При этом эти Reinforcement-Learned Teachers (так называется метод) получают награду, соответсвующую тому, насколько хорошо ученик их понял. Понимание оценивается с помощью лог-распределения вероятностей токенов на выходе у ученика.
➖ Таким образом модель-учитель обучается максимизировать ясность своих объяснений, и параллельно с этим (а не на следующем этапе) мы сразу обучаем конечную модель-ученика.
Во-первых, это получается быстрее и дешевле, потому что в качестве учителя уже не обязательно использовать огромную и супер-умную модель.
Во-вторых, тесты показывают, что такие учителя учат ризонингу лучше. На примере Qwen 7B и 32B на графике 2 видно, что прирост от RLT выше, чем от обучения с DeepSeek R1.
Пожалуй, самая интересная работа по RL за последнее время. Почитать полностью можно тут. Код и веса обученных моделей, кстати, тоже открыли.
Модели умеют размышлять благодаря обучению с подкреплением. Обычно это выглядит так: модель учится решать сложные задачи, рассуждая, и получает вознаграждение, если приходит к правильному ответу. При этом часто после этого знания такой модели-учителя используются (дистилляция или cold start) для обучения модели-ученика, которая и становится конечным продуктом. Так было, например, с R1.
Sakana же предлагают обучать модель-учителя непосредственно учить других, вместо того, чтобы выучивать что-то самой:
Во-первых, это получается быстрее и дешевле, потому что в качестве учителя уже не обязательно использовать огромную и супер-умную модель.
Во-вторых, тесты показывают, что такие учителя учат ризонингу лучше. На примере Qwen 7B и 32B на графике 2 видно, что прирост от RLT выше, чем от обучения с DeepSeek R1.
Пожалуй, самая интересная работа по RL за последнее время. Почитать полностью можно тут. Код и веса обученных моделей, кстати, тоже открыли.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ничего необычного, просто роборука подаёт сахар преподу!
Ничего необычного… да ведь?
Источник: Иван Калинов
Ничего необычного… да ведь?
Источник: Иван Калинов
В Cursor появился MCP Hugging Face
Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).
Очень приятное обновление, сразу захотелось потестить
Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).
Очень приятное обновление, сразу захотелось потестить
Media is too big
VIEW IN TELEGRAM
Eleven Labs выпустили свою собственную Siri с поддержкой Perplexity и Notion
Вообще Eleven Labs занимаются всякими аудио моделями, недавно вот выпустили самую продвинутую в мире text2speech с неотличимыми от живых людей голосами и интонациями (пост).
Но сейчас, видимо, они решили выйти на другой уровень и выпустили целого голосового помощника.
Велосипед изобретать не стали: просто взяли ту самую свою text2speech Eleven v3 и прикрутили к ней RAG, Perplexity и много полезных MCP типа Linear, Notion, Slack и тд. Получился неплохой голосовой агент.
За счет отличных моделей распознавания и генерации речи задержка ответа получается минимальной. А еще приятно, что можно выбирать из 5000 голосов (или даже использовать свой собственный, хах) и самостоятельно добавлять любые нужные MCP.
Попробовать – тут
Вообще Eleven Labs занимаются всякими аудио моделями, недавно вот выпустили самую продвинутую в мире text2speech с неотличимыми от живых людей голосами и интонациями (пост).
Но сейчас, видимо, они решили выйти на другой уровень и выпустили целого голосового помощника.
Велосипед изобретать не стали: просто взяли ту самую свою text2speech Eleven v3 и прикрутили к ней RAG, Perplexity и много полезных MCP типа Linear, Notion, Slack и тд. Получился неплохой голосовой агент.
За счет отличных моделей распознавания и генерации речи задержка ответа получается минимальной. А еще приятно, что можно выбирать из 5000 голосов (или даже использовать свой собственный, хах) и самостоятельно добавлять любые нужные MCP.
Попробовать – тут
Где получить высшее образование, которое ценят в IT-индустрии? На вузовских программах Яндекса!
Сейчас доступно более 25 программ бакалавриата, магистратуры и аспирантуры — от анализа данных до искусственного интеллекта. Поступить можно в ведущие университеты — ИТМО, МФТИ, НИУ ВШЭ и не только.
Учёба построена на практических задачах, а курсы разрабатываются при участии экспертов Яндекса и Школы анализа данных — опытных преподавателей и практиков в Machine Learning и Data Science.
Если хотите больше узнать о программах, переходите на сайт и читайте подробности!
Сейчас доступно более 25 программ бакалавриата, магистратуры и аспирантуры — от анализа данных до искусственного интеллекта. Поступить можно в ведущие университеты — ИТМО, МФТИ, НИУ ВШЭ и не только.
Учёба построена на практических задачах, а курсы разрабатываются при участии экспертов Яндекса и Школы анализа данных — опытных преподавателей и практиков в Machine Learning и Data Science.
Если хотите больше узнать о программах, переходите на сайт и читайте подробности!
Media is too big
VIEW IN TELEGRAM
Глядите, в Стэнфорде сделали искусственную кожу, которая может с помощью ML симулировать осязание
Первое, что бросается в глаза, – это однослойность. Здесь нет кучи слоев с датчиками, вместо этого используется тонкая гидрогелевая пленка, в которую вообще не зашито ничего твердого. Для улавливания сигналов у нее только гибкие электроды из серебряной нити.
Это похоже на кожу, но с таким подходом есть трудности. Когда мы получаем отклик от такой мембраны, его нельзя сразу локализовать. Измерения тока с электродов не стреляют в отдельные сенсоры, это скорее похоже на сложно-распределенное поле по всей поверхности гидрогеля.
Вот тут-то как раз и работает ML. Авторы используют PCA для сокращения количества каналов обработки, а потом обычную полносвязную нейросеть для локализации прикосновения и классификации.
В итоге такая рука может «чувствовать» порезы, механическое нажатие, прикосновения человека, влагу/температуру и даже ожоги.
Футуристичненько🚬
www.science.org/doi/10.1126/scirobotics.adq2303
Первое, что бросается в глаза, – это однослойность. Здесь нет кучи слоев с датчиками, вместо этого используется тонкая гидрогелевая пленка, в которую вообще не зашито ничего твердого. Для улавливания сигналов у нее только гибкие электроды из серебряной нити.
Это похоже на кожу, но с таким подходом есть трудности. Когда мы получаем отклик от такой мембраны, его нельзя сразу локализовать. Измерения тока с электродов не стреляют в отдельные сенсоры, это скорее похоже на сложно-распределенное поле по всей поверхности гидрогеля.
Вот тут-то как раз и работает ML. Авторы используют PCA для сокращения количества каналов обработки, а потом обычную полносвязную нейросеть для локализации прикосновения и классификации.
В итоге такая рука может «чувствовать» порезы, механическое нажатие, прикосновения человека, влагу/температуру и даже ожоги.
Футуристичненько
www.science.org/doi/10.1126/scirobotics.adq2303
Please open Telegram to view this post
VIEW IN TELEGRAM
Data Secrets
Intellect-2 или как обучить ризонинг модель на 32В без кластера GPU Помните, примерно пол года назад мы рассказывали вам, как в стартапе Prime Intellect впервые децентрализованно обучили крупную LM? Так вот теперь исследователи пошли дальше и обучили уже…
Prime Intellect запустили SYNTHETIC-2 – крупнейшую децентрализованную систему инференса в мире
Суть в том, что каждый человек может присоединить свою домашнюю GPU или кластер и стать частью сети планетарного масштаба.
Получается, что незнакомые люди со всего мира могут объединить свои карты и децентрализовано обучать и запускать огромные модели. Децентрализовано – значит, модели контролируют и все, и никто.
Каждая отдельная GPU только получает input от предыдущего узла, что-то считает (в случае инференса один степ forward-pass) и передает дальше. Причем схалтурить не получится – Prime Intellect прикрутили умную систему мониторинга TOPLOC V2. Она не следит за вашей GPU отдельно, но если заметит, что в итоговых общих расчетах что-то идет не так – сможет быстро вычислить виновного.
Глобально – это шаг к открытому AGI. Локально – даже частные исследователи смогут проводить полномасштабные полезные эксперименты + можно собрать кучу хороших данных.
И, что касается данных, результат уже есть. С помощью этой системы собрали огромный открытый датасет для обучения ризонеров. Брали DeepSeek-R1-0528, много раз гоняли распределено и нагенерировали много качественной синтетики. Теперь пользоваться данными могут все (hf).
Подсоединить свою карту все еще можно в любой момент. Вот инструкция. А вот тут можно в онлайне наблюдать, как разрастается сеть.
Любопытно, что из этого выйдет
Суть в том, что каждый человек может присоединить свою домашнюю GPU или кластер и стать частью сети планетарного масштаба.
Получается, что незнакомые люди со всего мира могут объединить свои карты и децентрализовано обучать и запускать огромные модели. Децентрализовано – значит, модели контролируют и все, и никто.
Каждая отдельная GPU только получает input от предыдущего узла, что-то считает (в случае инференса один степ forward-pass) и передает дальше. Причем схалтурить не получится – Prime Intellect прикрутили умную систему мониторинга TOPLOC V2. Она не следит за вашей GPU отдельно, но если заметит, что в итоговых общих расчетах что-то идет не так – сможет быстро вычислить виновного.
Глобально – это шаг к открытому AGI. Локально – даже частные исследователи смогут проводить полномасштабные полезные эксперименты + можно собрать кучу хороших данных.
И, что касается данных, результат уже есть. С помощью этой системы собрали огромный открытый датасет для обучения ризонеров. Брали DeepSeek-R1-0528, много раз гоняли распределено и нагенерировали много качественной синтетики. Теперь пользоваться данными могут все (hf).
Подсоединить свою карту все еще можно в любой момент. Вот инструкция. А вот тут можно в онлайне наблюдать, как разрастается сеть.
Любопытно, что из этого выйдет
Стали известны некоторые подробности продукта стартапа Миры Мурати
Оказывается, у Thinking Machines Lab пока не будет собственной ИИ-модели. Они целятся в первую очередь в b2b, и будут предлагать клиентам разработки на базе опенсорсных моделей.
При этом особое внимание в пост-обучении будет уделяться RL – и специально под такие метрики, как выручка или LTV.
Один из инвесторов, говоривших с Мирой, назвал ее продукт «RL для бизнеса»🧐
Оказывается, у Thinking Machines Lab пока не будет собственной ИИ-модели. Они целятся в первую очередь в b2b, и будут предлагать клиентам разработки на базе опенсорсных моделей.
При этом особое внимание в пост-обучении будет уделяться RL – и специально под такие метрики, как выручка или LTV.
Один из инвесторов, говоривших с Мирой, назвал ее продукт «RL для бизнеса»
Please open Telegram to view this post
VIEW IN TELEGRAM