Love. Death. Transformers.
Cобтсвенно авторы показывают, если брать Hanoi like (ну знаете ханойски башни, волк капуста коза и тд) puzzles, то оказывается что на этой задаче LLMкам плохо, на небольшом количестве блоков работают нормально, ризонеры стабильно лучше не ризонеров, выводы…
друзья у нас инновации на wwdc
tldr: Full-Stack Engineer, $70k–$90k + options, relocation to Paris
Мы ⚪️ whitecircle.ai. Делаем так, чтобы образовательные чатботы для школьников не говорили про 🍑ПоRn0🍑, банковские приложения не советовали вложить все деньги в биткоин, а сервисы по генерации картинок создавали поменьше цп. Но другие называют это скучным AI Safety
Подняли 💸1.6m$ pre-seed💸 в феврале и планируем поднимать seed в ближайшее время. В команде топовые ребята из Вышки, ИТМО и зарубежных вузов. Среди инвесторов топы из OpenAI, Deepmind, Anthropic, HuggingFace и других компаний
Ищем в команду второго фулстека, который поможет нам реализовывать все то, что с дикой скоростью успевает делать рисерч команда.
Frontend: TypeScript, Next.js, React
Backend: Prisma, GraphQL, Node.js, Docker, Kubernetes
Скидывайте резюме www.group-telegram.com/mixedenn с тегом #CV_LDT
А еще заглядывайте на лендос, у нас там можно подзалипнуть
Мы ⚪️ whitecircle.ai. Делаем так, чтобы образовательные чатботы для школьников не говорили про 🍑ПоRn0🍑, банковские приложения не советовали вложить все деньги в биткоин, а сервисы по генерации картинок создавали поменьше цп. Но другие называют это скучным AI Safety
Подняли 💸1.6m$ pre-seed💸 в феврале и планируем поднимать seed в ближайшее время. В команде топовые ребята из Вышки, ИТМО и зарубежных вузов. Среди инвесторов топы из OpenAI, Deepmind, Anthropic, HuggingFace и других компаний
Ищем в команду второго фулстека, который поможет нам реализовывать все то, что с дикой скоростью успевает делать рисерч команда.
Frontend: TypeScript, Next.js, React
Backend: Prisma, GraphQL, Node.js, Docker, Kubernetes
Скидывайте резюме www.group-telegram.com/mixedenn с тегом #CV_LDT
whitecircle.ai
White Circle AI
We keep your AI models safe, reliable, and secure.
Forwarded from что-то на DL-ском
🛡VulnBuster
Мы тут с коллэгами в рамках huggingface MCP хакатона сделали агентную систему с объединением 5 MCP тулов для поиска уязвимостей в коде
🛡 В чем суть:
Агент автоматически анализирует код с помощью различных сканеров, сопоставляет результаты и предлагает варианты устранения уязвимостей на основе ИИ, а также выдает отчет от каждого тула.
🛡 Что использовали:
1. Bandit MCP [link] — проверяет Python-код, находит базовые баги вроде SQL-инъекций и небезопасного eval.
2. Detect Secrets MCP [link] — ищет в коде и конфигурациях токены, ключи, пароли — даже закодированные.
3. Semgrep MCP [link] — анализирует 20+ языков, ловит XSS, path traversal и другие шаблонные уязвимости.
4. Pip Audit MCP [link] — находит уязвимые зависимости по CVE и предлагает обновления.
5. Circle Test MCP [via White Circle AI api] — проверяет код на соответствие политикам, которые мы сами задавали: лицензии, TODO, безопасные практики и тд
Именно 5 mcp тулов позволяют закрыть разные уровни безопастности и гибко заменять и расширять друг друга
🛡 По итогу вы получаете:
🩰 отчеты от всех тулов
🩰 предложения по исправлению от агента
🩰 а также можете сказать готовый файл от агента и встроить его сразу в workflow, если вам все понравилось
🤗Space
🖥 Code
🥹 🥹 🥹 🥹 🥹 🥹 🥹
P.S. Мы будет очень рады вашим лайкам на спейс, а также предложениям по улучшению или интеграциям куда-либо для пользы опенсурсу
Мы тут с коллэгами в рамках huggingface MCP хакатона сделали агентную систему с объединением 5 MCP тулов для поиска уязвимостей в коде
Агент автоматически анализирует код с помощью различных сканеров, сопоставляет результаты и предлагает варианты устранения уязвимостей на основе ИИ, а также выдает отчет от каждого тула.
1. Bandit MCP [link] — проверяет Python-код, находит базовые баги вроде SQL-инъекций и небезопасного eval.
2. Detect Secrets MCP [link] — ищет в коде и конфигурациях токены, ключи, пароли — даже закодированные.
3. Semgrep MCP [link] — анализирует 20+ языков, ловит XSS, path traversal и другие шаблонные уязвимости.
4. Pip Audit MCP [link] — находит уязвимые зависимости по CVE и предлагает обновления.
5. Circle Test MCP [via White Circle AI api] — проверяет код на соответствие политикам, которые мы сами задавали: лицензии, TODO, безопасные практики и тд
Именно 5 mcp тулов позволяют закрыть разные уровни безопастности и гибко заменять и расширять друг друга
🤗Space
P.S. Мы будет очень рады вашим лайкам на спейс, а также предложениям по улучшению или интеграциям куда-либо для пользы опенсурсу
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Агенты ИИ | AGI_and_RL
А вот и опенсурс ризонер от Мистраля
https://huggingface.co/mistralai/Magistral-Small-2506
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Макс контекст 128к, но пишут что послевархаммер 40к может начать тупить
https://huggingface.co/mistralai/Magistral-Small-2506
https://huggingface.co/mistralai/Magistral-Small-2506_gguf
Макс контекст 128к, но пишут что после
huggingface.co
mistralai/Magistral-Small-2506_gguf · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Бро какой в пизду фундаментальный ресерч ты yaml конфиг написать не можешь
Forwarded from Агенты ИИ | AGI_and_RL
Биологические на месте?
Там ребята выложили опенсурсную биомодельку Boltz-2
Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:
В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.
Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq
И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally
Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf
пост
https://boltz.bio/boltz2
код для запуска
https://github.com/jwohlwend/boltz
моделька
https://huggingface.co/boltz-community/boltz-2
PS собираем ИИнформацию и проекты делаем в https://www.group-telegram.com/researchim
Там ребята выложили опенсурсную биомодельку Boltz-2
Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:
Boltz-2 — это «универсальный движок» именно для задач структурной биологии и дизайна лекарств
Что делает?
- Строит форму белка, РНК/ДНК и лигандов в одном комплексе.
- Сразу оценивает силу связывания (Ki/Kd/IC50-подобную) — т.е. подсказывает, какая молекула будет держаться крепче.
- Всё это за ~20 с на одной видеокарте, тогда как классический FEP тратит часы-дни.
Чем полезен на практике?
- Быстрый фильтр миллионов соединений в виртуальном скрининге.
- Точная ранжировка близких аналогов на стадии hit-to-lead.
- Генерация новых молекул вместе с GFlowNet — модель сама предлагает, что синтезировать.
Boltz-2 — мощный, быстрый и открытый инструмент именно для 3-D структур и связывания
В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.
Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq
И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally
Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf
пост
https://boltz.bio/boltz2
код для запуска
https://github.com/jwohlwend/boltz
моделька
https://huggingface.co/boltz-community/boltz-2
PS собираем ИИнформацию и проекты делаем в https://www.group-telegram.com/researchim
Почему Айпад такая хуйня почему планшет за 1000 евро не заменяет ноутбук даже имея клаву экран и тд!!
Цукерберг купил кусок scale.ai и дал Александру вангу лабу которая будет строить ASI
Forwarded from gonzo-обзоры ML статей
Интересная новость от Huggingface. Компания не осилила multi-backend и прекращает поддержку всего кроме PyTorch (то есть JAX и TF) в своей либе transformers начиная с версии 5. 4-я LTS версия будет жива до лета 2026. Компания беспокоится, что библиотека разрослась, и обещает убрать 50% кода и разросшиеся абстракции. Новость тут: https://x.com/LysandreJik/status/1933201171130593530, PR тут: https://github.com/huggingface/transformers/pull/38758
Это любопытно. JAX при этом вполне жив и активно используется (из больших игроков как минимум модели Гугла и xAI обучаются на нём), статей тоже достаточно, а TF и правда не выглядит сильно живым, но наверняка он сидит в разных продакшн и мобильных деплойментах. Судя по paperswithcode (https://paperswithcode.com/trends) доля JAX наконец превысила долю TF. У обоих правда она невысока, у JAX 3%, у TF 2%. Интересно, что у MindSpore от Huawei уже 6%. Не совсем понятно, что там в other languages and frameworks с 31%.
Не знаю, как относиться, будем посмотреть. Я сам понял, что тоже не то чтобы активно использую transformers, все мои последние эксперименты с LLM шли мимо него. Но жаль всё-таки, что не получилось тру мультибэкенда.
Это любопытно. JAX при этом вполне жив и активно используется (из больших игроков как минимум модели Гугла и xAI обучаются на нём), статей тоже достаточно, а TF и правда не выглядит сильно живым, но наверняка он сидит в разных продакшн и мобильных деплойментах. Судя по paperswithcode (https://paperswithcode.com/trends) доля JAX наконец превысила долю TF. У обоих правда она невысока, у JAX 3%, у TF 2%. Интересно, что у MindSpore от Huawei уже 6%. Не совсем понятно, что там в other languages and frameworks с 31%.
Не знаю, как относиться, будем посмотреть. Я сам понял, что тоже не то чтобы активно использую transformers, все мои последние эксперименты с LLM шли мимо него. Но жаль всё-таки, что не получилось тру мультибэкенда.
HF kernels hub
кернел это такой кусок кода встраивыаемый в вычислительный граф и описыващий какие то спецефичные по памяти/последовательности вычислений операции которые за счет последовательности прям сильно быстрее работают(flash attn как хороший пример)
HF выпускают библеотеку кернелов, чтобы не таскать из vllm в sglang и обратно кернелы, а просто делать
ВСЕ, ускоряем почти любой кусок графа в несколько раз бесплатно!
link
кернел это такой кусок кода встраивыаемый в вычислительный граф и описыващий какие то спецефичные по памяти/последовательности вычислений операции которые за счет последовательности прям сильно быстрее работают(flash attn как хороший пример)
HF выпускают библеотеку кернелов, чтобы не таскать из vllm в sglang и обратно кернелы, а просто делать
import torch
import torch.nn.functional as F
from kernels import get_kernel
DEVICE = "cuda"
activation_kernels = get_kernel("kernels-community/activation")
x = torch.randn((4, 4), dtype=torch.float16, device=DEVICE)
# Prepare an output tensor
y = torch.empty_like(x)
# Run the fast GELU kernel
activation_kernels.gelu_fast(y, x)
# Get expected output using PyTorch's built-in GELU
expected = F.gelu(x)
ВСЕ, ускоряем почти любой кусок графа в несколько раз бесплатно!
link