Telegram Group Search
чет забыл добавить hi=1 при 10 статьях
tldr: Full-Stack Engineer, $70k–$90k + options, relocation to Paris

Мы ⚪️ whitecircle.ai. Делаем так, чтобы образовательные чатботы для школьников не говорили про 🍑ПоRn0🍑, банковские приложения не советовали вложить все деньги в биткоин, а сервисы по генерации картинок создавали поменьше цп. Но другие называют это скучным AI Safety

Подняли 💸1.6m$ pre-seed💸 в феврале и планируем поднимать seed в ближайшее время. В команде топовые ребята из Вышки, ИТМО и зарубежных вузов. Среди инвесторов топы из OpenAI, Deepmind, Anthropic, HuggingFace и других компаний

Ищем в команду второго фулстека, который поможет нам реализовывать все то, что с дикой скоростью успевает делать рисерч команда.

Frontend: TypeScript, Next.js, React
Backend: Prisma, GraphQL, Node.js, Docker, Kubernetes

Скидывайте резюме www.group-telegram.com/mixedenn с тегом #CV_LDT

А еще заглядывайте на лендос, у нас там можно подзалипнуть
🛡VulnBuster

Мы тут с коллэгами в рамках huggingface MCP хакатона сделали агентную систему с объединением 5 MCP тулов для поиска уязвимостей в коде

🛡В чем суть:

Агент автоматически анализирует код с помощью различных сканеров, сопоставляет результаты и предлагает варианты устранения уязвимостей на основе ИИ, а также выдает отчет от каждого тула.

🛡Что использовали:

1. Bandit MCP [link] — проверяет Python-код, находит базовые баги вроде SQL-инъекций и небезопасного eval.
2. Detect Secrets MCP [link] — ищет в коде и конфигурациях токены, ключи, пароли — даже закодированные.
3. Semgrep MCP [link] — анализирует 20+ языков, ловит XSS, path traversal и другие шаблонные уязвимости.
4. Pip Audit MCP [link] — находит уязвимые зависимости по CVE и предлагает обновления.
5. Circle Test MCP [via White Circle AI api] — проверяет код на соответствие политикам, которые мы сами задавали: лицензии, TODO, безопасные практики и тд

Именно 5 mcp тулов позволяют закрыть разные уровни безопастности и гибко заменять и расширять друг друга

🛡По итогу вы получаете:
🩰отчеты от всех тулов
🩰предложения по исправлению от агента
🩰а также можете сказать готовый файл от агента и встроить его сразу в workflow, если вам все понравилось

🤗Space
🖥Code

🥹🥹🥹🥹🥹🥹🥹
P.S. Мы будет очень рады вашим лайкам на спейс, а также предложениям по улучшению или интеграциям куда-либо для пользы опенсурсу
Please open Telegram to view this post
VIEW IN TELEGRAM
Бро какой в пизду фундаментальный ресерч ты yaml конфиг написать не можешь
Биологические на месте?
Там ребята выложили опенсурсную биомодельку Boltz-2

Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:

Boltz-2 — это «универсальный движок» именно для задач структурной биологии и дизайна лекарств

Что делает?

- Строит форму белка, РНК/ДНК и лигандов в одном комплексе.
- Сразу оценивает силу связывания (Ki/Kd/IC50-подобную) — т.е. подсказывает, какая молекула будет держаться крепче.
- Всё это за ~20 с на одной видеокарте, тогда как классический FEP тратит часы-дни.

Чем полезен на практике?
- Быстрый фильтр миллионов соединений в виртуальном скрининге.
- Точная ранжировка близких аналогов на стадии hit-to-lead.
- Генерация новых молекул вместе с GFlowNet — модель сама предлагает, что синтезировать.

Boltz-2 — мощный, быстрый и открытый инструмент именно для 3-D структур и связывания


В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.

Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq

И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally


Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf

пост
https://boltz.bio/boltz2

код для запуска
https://github.com/jwohlwend/boltz

моделька
https://huggingface.co/boltz-community/boltz-2

PS собираем ИИнформацию и проекты делаем в https://www.group-telegram.com/researchim
Надеюсь они выложат промпт который сделал это
Почему Айпад такая хуйня почему планшет за 1000 евро не заменяет ноутбук даже имея клаву экран и тд!!
Цукерберг купил кусок scale.ai и дал Александру вангу лабу которая будет строить ASI
Интересная новость от Huggingface. Компания не осилила multi-backend и прекращает поддержку всего кроме PyTorch (то есть JAX и TF) в своей либе transformers начиная с версии 5. 4-я LTS версия будет жива до лета 2026. Компания беспокоится, что библиотека разрослась, и обещает убрать 50% кода и разросшиеся абстракции. Новость тут: https://x.com/LysandreJik/status/1933201171130593530, PR тут: https://github.com/huggingface/transformers/pull/38758

Это любопытно. JAX при этом вполне жив и активно используется (из больших игроков как минимум модели Гугла и xAI обучаются на нём), статей тоже достаточно, а TF и правда не выглядит сильно живым, но наверняка он сидит в разных продакшн и мобильных деплойментах. Судя по paperswithcode (https://paperswithcode.com/trends) доля JAX наконец превысила долю TF. У обоих правда она невысока, у JAX 3%, у TF 2%. Интересно, что у MindSpore от Huawei уже 6%. Не совсем понятно, что там в other languages and frameworks с 31%.

Не знаю, как относиться, будем посмотреть. Я сам понял, что тоже не то чтобы активно использую transformers, все мои последние эксперименты с LLM шли мимо него. Но жаль всё-таки, что не получилось тру мультибэкенда.
This media is not supported in your browser
VIEW IN TELEGRAM
HF kernels hub

кернел это такой кусок кода встраивыаемый в вычислительный граф и описыващий какие то спецефичные по памяти/последовательности вычислений операции которые за счет последовательности прям сильно быстрее работают(flash attn как хороший пример)

HF выпускают библеотеку кернелов, чтобы не таскать из vllm в sglang и обратно кернелы, а просто делать
import torch
import torch.nn.functional as F
from kernels import get_kernel

DEVICE = "cuda"


activation_kernels = get_kernel("kernels-community/activation")
x = torch.randn((4, 4), dtype=torch.float16, device=DEVICE)

# Prepare an output tensor
y = torch.empty_like(x)

# Run the fast GELU kernel
activation_kernels.gelu_fast(y, x)

# Get expected output using PyTorch's built-in GELU
expected = F.gelu(x)


ВСЕ, ускоряем почти любой кусок графа в несколько раз бесплатно!

link
2025/06/16 15:41:39
Back to Top
HTML Embed Code: