Telegram Group Search
Бро какой в пизду фундаментальный ресерч ты yaml конфиг написать не можешь
Биологические на месте?
Там ребята выложили опенсурсную биомодельку Boltz-2

Т.к. я не шарю, то спросил у чатгпт по статейке что же делает:

Boltz-2 — это «универсальный движок» именно для задач структурной биологии и дизайна лекарств

Что делает?

- Строит форму белка, РНК/ДНК и лигандов в одном комплексе.
- Сразу оценивает силу связывания (Ki/Kd/IC50-подобную) — т.е. подсказывает, какая молекула будет держаться крепче.
- Всё это за ~20 с на одной видеокарте, тогда как классический FEP тратит часы-дни.

Чем полезен на практике?
- Быстрый фильтр миллионов соединений в виртуальном скрининге.
- Точная ранжировка близких аналогов на стадии hit-to-lead.
- Генерация новых молекул вместе с GFlowNet — модель сама предлагает, что синтезировать.

Boltz-2 — мощный, быстрый и открытый инструмент именно для 3-D структур и связывания


В целом Boltz-2 это альтернатива AlphaFold 3.
но веса у AF3 закрыты и надо просить по запросу к Гуглу-Дипмаинду.
А у Больтза все открытое.

Можно хорошо почитать тут
https://rowansci.com/blog/boltz2-faq

И к ней уже GUI прикрутили с инструкцией по запуску тут: https://proteinlanguagemodel.com/blog/how_to_run_boltz2_locally


Boltz-2: Towards Accurate and Efficient Binding Affinity Prediction
https://cdn.prod.website-files.com/68404fd075dba49e58331ad9/6842ee1285b9af247ac5a122_boltz2.pdf

пост
https://boltz.bio/boltz2

код для запуска
https://github.com/jwohlwend/boltz

моделька
https://huggingface.co/boltz-community/boltz-2

PS собираем ИИнформацию и проекты делаем в https://www.group-telegram.com/researchim
Надеюсь они выложат промпт который сделал это
Почему Айпад такая хуйня почему планшет за 1000 евро не заменяет ноутбук даже имея клаву экран и тд!!
Цукерберг купил кусок scale.ai и дал Александру вангу лабу которая будет строить ASI
Интересная новость от Huggingface. Компания не осилила multi-backend и прекращает поддержку всего кроме PyTorch (то есть JAX и TF) в своей либе transformers начиная с версии 5. 4-я LTS версия будет жива до лета 2026. Компания беспокоится, что библиотека разрослась, и обещает убрать 50% кода и разросшиеся абстракции. Новость тут: https://x.com/LysandreJik/status/1933201171130593530, PR тут: https://github.com/huggingface/transformers/pull/38758

Это любопытно. JAX при этом вполне жив и активно используется (из больших игроков как минимум модели Гугла и xAI обучаются на нём), статей тоже достаточно, а TF и правда не выглядит сильно живым, но наверняка он сидит в разных продакшн и мобильных деплойментах. Судя по paperswithcode (https://paperswithcode.com/trends) доля JAX наконец превысила долю TF. У обоих правда она невысока, у JAX 3%, у TF 2%. Интересно, что у MindSpore от Huawei уже 6%. Не совсем понятно, что там в other languages and frameworks с 31%.

Не знаю, как относиться, будем посмотреть. Я сам понял, что тоже не то чтобы активно использую transformers, все мои последние эксперименты с LLM шли мимо него. Но жаль всё-таки, что не получилось тру мультибэкенда.
This media is not supported in your browser
VIEW IN TELEGRAM
HF kernels hub

кернел это такой кусок кода встраивыаемый в вычислительный граф и описыващий какие то спецефичные по памяти/последовательности вычислений операции которые за счет последовательности прям сильно быстрее работают(flash attn как хороший пример)

HF выпускают библеотеку кернелов, чтобы не таскать из vllm в sglang и обратно кернелы, а просто делать
import torch
import torch.nn.functional as F
from kernels import get_kernel

DEVICE = "cuda"


activation_kernels = get_kernel("kernels-community/activation")
x = torch.randn((4, 4), dtype=torch.float16, device=DEVICE)

# Prepare an output tensor
y = torch.empty_like(x)

# Run the fast GELU kernel
activation_kernels.gelu_fast(y, x)

# Get expected output using PyTorch's built-in GELU
expected = F.gelu(x)


ВСЕ, ускоряем почти любой кусок графа в несколько раз бесплатно!

link
dark fantasy топ мэнджеров в том чтобы уволить 70% штата заменив на агентов-индусов-аутсорс в восточной европе, главное верить, щаща в индии обуичим агентов разработку
знаешь анекдот про быстрого ганзалеса?
27 сентября пройдет конференция по прикладному машинному обучению от Яндекса — Practical ML Conf. В этом году на конференции будут представлены доклады по 6 трекам: CV, NLP, Speech, RecSys, MLOps, Data Science. CFP открыт до 23 июня, для подачи заявки перейдите по ссылке.


Что предлагаем для спикеров:
ПК конференции дадут советы по структуре и содержанию доклада
Прогоны материалов с тренером по публичным выступлениям и помощь с дизайном презентаций
Возможность понетворкать с другими спикерами и получить фидбэк по проекту
Промо докладов через каналы Яндекса до и после конференции
Возможность посетить PML Conf без отбора вместе с +1
Please open Telegram to view this post
VIEW IN TELEGRAM
openaifiles.org очень забавный сборник про то какие опенаи плохие
This media is not supported in your browser
VIEW IN TELEGRAM
https://www.midjourney.com/updates/introducing-our-v1-video-model

Лучше ли чем veo3? Скорее нет. Лучше ли чем соседи в виде huynyan и прочих? Скорее да.
2025/06/19 01:51:26
Back to Top
HTML Embed Code: