Telegram Group Search
✔️ Awesome AI/ML Resources: Learn AI/ML for beginners with a roadmap and free resources.

🖥 Github

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
✔️ GitHub Copilot для Xcode запущен для публичного тестирования.

GitHub Copilot для Xcode Chat стал доступен для публичного превью. Для начала работы достаточно учетной записи GitHub.

GitHub Copilot – это ИИ-ассистент, который помогает разработчикам писать код быстрее и точнее. Теперь, помимо дописывания кода, GitHub Copilot для Xcode предлагает интеллектуальные предложения для конкретных задач через интерактивный чат.

Для доступа к GitHub Copilot для Xcode потребуется лицензия Copilot. Есть бесплатный доступ, включающий 2000 итераций автозавершения кода и 50 чат-запросов в месяц.
devblogs.microsoft.com

✔️ OpenAI опубликовала SWE-Lancer: бенчмарк для LLM в кодинге.

SWE-Lancer позиционируется как инструмент оценки производительности языковых моделей в задачах программирования для фрилансеров. Он основан на 1400 фриланс-задачах, собранных из Upwork и репозитория Expensify. Задания варьируются от исправления незначительных ошибок до внедрения крупных функций.

SWE-Lancer предназначен для оценки как отдельных исправлений кода, так и управленческих решений, где модели должны выбирать лучшее предложение из нескольких вариантов. Одной из сильных сторон SWE-Lancer является использование сквозных тестов вместо изолированных модульных операций. Репозиторий бенчмарка ожидается в ближайшее время.
arxiv.org

✔️ X повышает цены на Premium+ после выпуска Grok 3.

X (ех-Twitter) значительно повысила цену на план подписки Premium+, дающий доступ к Grok 3 от xAI. Она подорожала почти до 50 долларов в месяц.

Теперь, чтобы пользоваться "deep search" и "reasoning", надо оформить отдельный план SuperGrok через приложение Grok.

Согласно сайту поддержки X, месячная подписка на Premium+ в США теперь стоит 50 долларов, а годовая – 350 долларов. Это уже второе повышение цен на план Premium+ за последние пару месяцев. В декабре компания подняла цену с 16 до 22 долларов в месяц. Таким образом, новая цена более чем вдвое превышает текущую стоимость подписки.
techcrunch.com

✔️ Native Sparse Attention - революция в механизмах внимания от Deepseek.

NSA (Natively Sparse Attention) — новый механизм внимания, предложенный на заменуFull Attention, который значительно ускоряет обработку длинных последовательностей текста без потери качества модели.
NSA использует динамическую иерархическую стратегию, которая сочетает сжатие токенов на грубом уровне с точным отбором ключевых токенов. Это позволяет сохранить глобальное понимание контекста и локальную точность. NSA поддерживает сквозное обучение, совместим с GQA и MQA, что делает его пригодным не только для инференса, но и для обучения.
Модели, обученные с использованием NSA показали 9х ускорение при прямом распространении и 6х при обратном для последовательностей длиной 64к токенов относительно Full Attention. В декодировании - 11х.
arxiv.org

✔️ Мира Мурати готова рассказать миру, над чем она работает.

Мира Мурати, ex-CTO OpenAI, покинула свой пост в сентябре 2024, заявив о желании "создать время и пространство для собственных исследований". И вот стало известно, что она – CEO компании Thinking Machines Lab. Ее миссия – разработка первоклассного AI, полезного и доступного для всех.

В команду Thinking Machines Lab вошли известные исследователи и ученые, в основном из OpenAI. Среди них – экс-вице-президент по исследованиям Баррет Зоф, руководитель по мультимодальным исследованиям Александр Кириллов, руководитель специальных проектов Джон Лакман и ведущий исследователь Люк Мец. Главным научным сотрудником станет Джон Шульман, один из ключевых создателей ChatGPT, ранее работавший в OpenAI и Anthropic. Есть специалисты из Google и Mistral AI.

Команда уже работает над рядом проектов в офисе в Сан-Франциско. Хотя конкретные продукты пока неясны, Thinking Machines Lab не планирует создавать копии ChatGPT или Claude. Цель – AI-модели, оптимизирующие сотрудничество между человеком и AI, что Мурати считает главным препятствием в развитии отрасли.
wired.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Bridging Text and Vision: A Multi-View Text-Vision Registration Approach for Cross-Modal Place Recognition

🖥 Github: https://github.com/nuozimiaowu/Text4VPR

📕 Paper: https://arxiv.org/abs/2502.14195v1

🌟 Dataset: https://paperswithcode.com/task/cross-modal-place-recognition

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Модель Wan2.1-T2V-14B от команды Wan-AI – новый топовый опенсорс инструмент генерации видео, который объединяет в себе несколько интересных особенностей.

⚡️ Мощная архитектура yf 14 млрд параметров

Модель способна детально прорабатывать сцены и динамику, генерируя высококачественные видео, где каждая деталь выглядит реалистично.

Модель поддерживает:

- Text-to-Video: генерация видео по текстовым запросам.
Image-to-Video: преобразование статических изображений в анимированные видеоролики.
- Видео-редактирование: внесение изменений в уже существующие видео.
- Text-to-Image: создание изображений на основе текста.
- Video-to-Audio: синтез аудио, соответствующих содержанию видео.
Такая универсальность делает модель полезной для широкого спектра приложений.

Использование видео VAE (вариационного автоэнкодера)
В основе модели лежит мощный видео VAE, который эффективно кодирует и декодирует видеоконтент. Это позволяет:

- Обрабатывать видео высокого разрешения (до 1080p).
- Сохранять временную динамику и последовательность кадров.
- Обеспечивать плавное и согласованное воспроизведение движения.
- Оптимизация для потребительских видеокарт

Несмотря на свои масштабы, модель оптимизирована для работы на современных GPU.

Например, версия T2V-1.3B требует всего 8,19 ГБпамяти и способна генерировать 5-секундное видео с разрешением 480p примерно за 4 минуты на RTX 4090 без применения дополнительных оптимизаций.

Как работает:

Ввод данных: Пользователь может задать текстовое описание, предоставить изображение или даже видео, в зависимости от задачи.
Кодирование: Виде VAE преобразует входные данные в компактное представление, сохраняя при этом критически важную информацию о сцене и динамике.
Генерация: На основе этого представления и с использованием огромного количества параметров модель генерирует новый видеоряд, который соответствует заданному описанию или образцу.
Декодирование: Затем VAE декодирует это представление обратно в полноценное видео, где соблюдаются все временные и визуальные детали.

Таким образом, Wan2.1-T2V-14B выделяется своей способностью не только создавать качественные видео по текстовому описанию, но и решать множество сопутствующих задач (от редактирования до генерации аудио), оставаясь при этом оптимизированной для работы на доступном оборудовании.

Это делает её одной из самых перспективных разработок в области генеративного видео на сегодняшний день.

🟡 Github: https://github.com/Wan-Video/Wan2.1/
🟡HF: https://huggingface.co/Wan-AI/Wan2.1-T2V-14B
🟡Model Scope: https://modelscope.cn/organization/Wan-AI

@ai_machinelearning_big_data

#TexttoVideo #ai #ml #video #wanai
Please open Telegram to view this post
VIEW IN TELEGRAM
AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement

🖥 Github: https://github.com/thu-coai/AISafetyLab

📕 Paper: https://arxiv.org/abs/2502.16776v1

🌟 Dataset: https://paperswithcode.com/dataset/gptfuzzer

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Kiss3DGen: Repurposing Image Diffusion Models for 3D Asset Generation

🖥 Github: https://github.com/EnVision-Research/Kiss3DGen

📕 Paper: https://arxiv.org/abs/2503.01370v1

🌟 Dataset: https://paperswithcode.com/dataset/nerf

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Seg-Zero: Reasoning-Chain Guided Segmentation via Cognitive Reinforcement

🖥 Github: https://github.com/yunncheng/MMRL

📕 Paper: https://arxiv.org/abs/2503.08497v1

🌟 Dataset: https://paperswithcode.com/dataset/imagenet-s

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ TxAgent: An AI agent for therapeutic reasoning across a universe of tools

🖥 Github: https://github.com/mims-harvard/TxAgent

📕 Paper: https://arxiv.org/abs/2503.10970v1

🌟 Methods: https://paperswithcode.com/method/align

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ MaTVLM: Hybrid Mamba-Transformer for Efficient Vision-Language Modeling

🖥 Github: https://github.com/hustvl/MaTVLM

📕 Paper: https://arxiv.org/abs/2503.13440v1

🌟 Methods: https://paperswithcode.com/method/speed

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
⚡️ Claude получила возможность веб-поиска.

Anthropic объявила о запуске новой функции веб-поиска для Claude. Теперь ИИ способен анализировать актуальные данные из интернета, предоставляя ответы с прямыми ссылками на источники. Это позволяет не только повысить достоверность информации, но и упростить проверку фактов.

Поиск доступен в режиме Preview для платных подписчиков в США, но в ближайшие месяцы ожидается глобальное расширение. Для активации ye;yj включить опцию в настройках профиля и начать диалог с Claude 3.7 Sonnet — система сама определит, когда требуется обращение к веб-источникам
anthropic.com

✔️ Hugging Face запустил приложение HuggingSnap: оффлайн-ИИ для анализа окружения через камеру iPhone.

Hugging Face представила приложение HuggingSnap для iOS, использующее локальную Smolvlm2 для анализа изображений в реальном времени без подключения к сервису. В отличие от облачных аналогов, HuggingSnap обрабатывает данные исключительно на устройстве, экономя заряд устройства и гарантируя конфиденциальность. Пользователи могут получать описания объектов, сцен, текстов и сложных визуальных контекстов.

Для работы требуется iOS 18, но приложение также совместимо с macOS и Apple Vision Pro. По словам разработчиков, HuggingSnap-это пример, как локальный ИИ может стать повседневным инструментом.
techcrunch.com

✔️ Google добавит Gemini AI в Chrome, повторяя опыт Copilot для Windows 11

Google активно тестирует интеграцию ИИ-ассистента Gemini в браузер Chrome, стремясь вывести его за рамки веб-сайта. Как выяснили исследователи, функционал разместят в верхней части окна — рядом с кнопками управления. В настройках появится возможность назначить горячие клавиши или активировать ассистент через меню. При запуске Gemini будет открываться в отдельном плавающем окне. Кроме того, Google планирует вынести иконку ассистента в системный трей — запускать его можно будет прямо с панели задач, хотя для работы потребуется активный Chrome.

Пока функция доступна лишь в экспериментальных сборках, а ее стабильность оставляет желать лучшего. Ясно одно - Google намерен конкурировать с Microsoft, предлагая свой подход к интеграции ИИ в повседневные инструменты.
windowslatest

✔️ AudioX: универсальная модель генерации звука и музыки через кросс-модальные преобразования.

Moonshot AI совместно с Гонконгским университетом анонсировали AudioX — универсальную модель на базе Diffusion Transformer, способную генерировать высококачественное аудио и музыку из текста, видео, изображений или их комбинаций. Главная инновация — стратегия маскирования входных данных, которая усиливает обучение кросс-модальных представлений.

Возможности AudioX: генерация любых звуков на основе текста, видео и их комбинаций (текстовый промпт к видео), восстановление "потерянной" части аудио, генерация музыки на основе текста, видео и их комбинации и "аутпейнт" существующего аудио.

Тесты AudioX: лучшая в 15+ задачах, включая генерацию звука по видео (VGGSound) и создание музыки по тексту (MusicCaps). На FAD и KL-дивергенции модель показала улучшение на 12–35% против Tango 2 и AudioLDM.
Веса и код - coming soon.
zeyuet.github

✔️ Microsoft Research разработал Claimify: инструмент фактчекинга ИИ

Microsoft Research представил Claimify — систему, которая решает проблему недостоверных ответов ИИ, извлекая из текстов только верифицируемые утверждения. Метод основан принципах: исключение субъективных суждений, сохранение критического контекста, устранение двусмысленностей, самостоятельность утверждений и др. Результаты тестов показывают, что 99% утверждений, извлечённых Claimify, полностью соответствуют исходному контексту.
microsoft

✔️ RF-DETR: новая SOTA для обнаружения объектов в реальном времени с открытым исходным кодом.
Это первая модель, работающая а реальном времени: 60+ mAP на COCO. SOTA на бенчмарке RF100-VLRF-DETR.
Github

✔️ Same New - нейросеть копирует любой сайт с точностью до пикселя — по одной ссылке воспроизводит весь интерфейс, структуру, анимации, изображения и даже интерактивные элементы.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
PiEEG kit - bioscience Lab in home for your Brain and Body

🖥 Github: https://github.com/pieeg-club/PiEEG_Kit

📕 Paper: https://arxiv.org/abs/2503.13482

🌟 Methods: https://paperswithcode.com/task/eeg-1

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
FastCuRL: Curriculum Reinforcement Learning with Progressive Context Extension for Efficient Training R1-like Reasoning Models

🖥 Github: https://github.com/nick7nlp/FastCuRL

📕 Paper: https://arxiv.org/abs/2503.17287v1

🌟 Tasks
: https://paperswithcode.com/task/language-modeling

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Harnessing the Reasoning Economy: A Survey of Efficient Reasoning for Large Language Models

🖥 Github: https://github.com/devoallen/awesome-reasoning-economy-papers

📕 Paper: https://arxiv.org/abs/2503.24377v1

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨Data Fusion 2025 совсем скоро. Вы успели зарегистрироваться?

О LLM сейчас рассказывают везде. ChatGPT, Midjourney, DeepSeek уже стали must-have любого современного специалиста. Но в новостях много маркетинга, платных курсов и мало реальной пользы. А ведь всех реально интересует всего 1 вопрос — как применять искусственный интеллект на практике, чтобы это конвертировалось в репутацию, деньги и развитие бизнеса?

Добро пожаловать на Data Fusion 2025 — здесь эксперты индустрии по фактам обсудят связь ИИ и больших данных и как ее направить в получение прикладного результата.

📌 Что будет на сессиях:
— Инновационные практики AI: от разработки автономных систем до создания этических стандартов для AI.
— Будущее AI в промышленности и медицине: как AI уже помогает решать проблемы здравоохранения, строить умные города и прогнозировать риски в бизнесе.
— Этика ИИ и ответственность: какие проблемы стоят перед разработчиками и как избежать предвзятости в алгоритмах.
— Искусственный интеллект в борьбе с глобальными вызовами: как AI помогает в решении экосистемных проблем, таких как изменение климата и управление ресурсами.

📌Москва, технологический кластер «Ломоносов», 16-17 апреля.

Не упустите шанс быть в центре технологической революции — регистрируйтесь прямо сейчас — https://data-fusion.ru/. Участие бесплатно!

И пока вы ждете начало конференции — загляните в чат-бот Telegram Data Quest! Там вас ждут интересные задания с призами, программа, прямые трансляции и бизнес-тиндер. ➡️ www.group-telegram.com/DFStage_bot


*LLM — нейронные сети
*ChatGPT, Midjourney, DeepSeek — сервисы генеративного искусственного интеллекта
*AI — искусственный интеллект
Effect-driven interpretation: Functors for natural language composition

🖥 Github: https://github.com/UCSC-VLAA/MedReason

📕 Paper: https://arxiv.org/abs/2504.00993v1

🔗 Tasks: https://paperswithcode.com/task/knowledge-graphs

@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Неутомимый ИИ, который 24/7 помогает принимать решения, предугадывает действия и мониторит состояние процессов. Это – не фантастика, а реальный результат, которого можно достичь с помощью AI-ассистентов и AI-агентов.

В новой статье детально разбираемся, в чем сходство и отличие этих двух технологий. Вы узнаете:
🔤 Почему AI-агенты так хороши в задачах, не требующих участия человека.
🔤 Какие существуют типы агентов и на что они способны.
🔤 Как с помощью AI-ассистентов очеловечить технологию и сделать ее доступной всем пользователям.

Советы пригодятся для разработки решений на ML-соревнованиях. Читать статью: https://cnrlink.com/aiitonecupmlartint

Хочешь проверить рекомендации на практике? Приглашаем тебя на IT_ONE Cup. ML Challenge. Создай AI-ассистента, который будет помогать в работе дизайнерам, системным и бизнес-аналитикам.

Почему стоит участвовать:
Три трека и девять победителей, которые разделят призовой фонд в 1 500 000 рублей.
Возможность работать соло или в команде до 5 человек.
Прокачка навыков работы с LLM и генеративными моделями на практике.
Знакомство с экспертами Sk FinTech Hub и IT_ONE, а также проектами компании.

Готов создать своего неутомимого ИИ-помощника? Регистрируйся до 13 апреля: https://cnrlink.com/itonecupmlartint
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/04/08 12:29:00
Back to Top
HTML Embed Code: