Telegram Group Search
This media is not supported in your browser
VIEW IN TELEGRAM
🪰 FlyWire — ИИ-карта мозга мушки-дрозофилы

Нейробиологи и ИИ-исследователи из Принстона, Allen Institute, Google и других ведущих институтов создали самую подробную карту мозга взрослой мушки-дрозофилы. Проект FlyWire объединил силу нейросетей и тысячи часов работы ученых-добровольцев, чтобы построить полноценный коннектом (карту нейронных связей).

Зачем это нужно?

Дрозофилы просты, но их мозг работает по похожим принципам, что и у человека. Изучая эту нейронную сеть, можно понять базовые механизмы восприятия, принятия решений и поведения.

Чем крут FlyWire:

🧠 140 тысяч нейронов и 50+ миллионов синапсов уже картированы и размечены вручную экспертами и волонтерами.
🧬 Впервые доступна информация о типах нейромедиаторов для почти всех нейронов.
🔎 Более 100 тысяч аннотаций сделаны сотнями нейробиологов и краудсорсеров со всего мира.
🌐 Данные полностью открыты — любой может изучать и использовать карту с помощью интерактивного инструмента Codex.

И что дальше?

FlyWire — это не просто карта мозга, это платформа для новых исследований, которая уже помогла понять, как дрозофилы видят, чувствуют вкус, принимают решения и двигаются.

🕹️ Попробовать FlyWire Connectome можно тут: FlyWire.ai
Media is too big
VIEW IN TELEGRAM
Зиппи: робот-шеф, меняющий кулинарию 🍳

Встречайте Зиппи - робота-шефа, который может перевернуть высокую кухню с ног на голову.

- Уже впечатляет шеф-поваров со звездами Мишлен
- ИИ обучен на более чем 5 миллионах рецептов
- Осваивает ЛЮБОЕ новое блюдо всего по ОДНОЙ демонстрации эксперта
- Легко интегрируется в любую профессиональную кухню

Представьте: блюда от лучших шеф-поваров со звездами Мишлен — идеально воспроизведенные Зиппи, каждый раз!

Внутри "мозга" Зиппи:
↳ Продвинутое мультимодальное восприятие
↳ Активное моделирование теплопередачи (как у мастеров!)
↳ Самоадаптация к ЛЮБОЙ кухонной среде
↳ 91% автономности и постоянное обучение


Приятного AIпетита! 🤖🍽️

▶️ Видео

🍽️ Блог
Please open Telegram to view this post
VIEW IN TELEGRAM
AI для Всех
Вечер в Сиэтле Вечером 17ого марта буду в Сиэтле, готов организовать пиво 🍻 Если есть кто-то, добавляйтесь! https://partiful.com/e/gAwx8xRvwgw8myZ2So0r
🍻 Напоминаю про завтрашний вечер в Сиэтле!

Уже завтра (17 марта) встретимся на пиво, пообщаться и отлично провести время. Если кто-то ещё хочет присоединиться, сейчас самое время отметить себя по ссылке ниже 👇

📍Ссылка на встречу

До встречи завтра!
Чат: расскажите все что знаете про ELO. Его только для выявления лучших игроков используют? Преимущества перед другими методами? Значимые модификации? Что лучше придумали? Подводные камни? Вообщем все что знаете!
Zochi и эра конкуренции среди ИИ-учёных: ИИ сам придумывает гипотезы, методы и... сам себя оценивает

ИИ уже не просто отвечает на вопросы, а он задаёт их сам, не помогает учёным, а становится ИИ-учёным. Вышел технический репорт о Zochi от Intology, работы которого тоже приняты на воркшопы ICLR 2025. Но есть нюанс (он в конце).

Вот научные труды Zochi:

1. CS-ReFT: без конфликтов навыков

Проблема: при адаптации моделей к нескольким задачам возникают конфликты - прокачка одного навыка ухудшает другие.

Zochi нашёл решение: не трогаем веса, вместо этого редактируем скрытые представления модели. Метод называется CS-ReFT (Compositional Subspace Representation Fine-tuning): каждое умение живёт в своём ортогональном подпространстве, и объединяются через лёгкий роутер.

Результаты:
• Llama-2-7B + CS-ReFT обошёл GPT-3.5-Turbo (93.94% побед против 86.3%);
• Использовано всего 0.0098% параметров модели. Почти бесплатно.

Рецензии 6, 7 и 6 баллов, в саммари идея названа «умной» и отмечено эффективное устранение «критического ограничения ReFT».

2. Siege: тестирование LLM на уязвимости

Проблема:
Zochi изучил безопасность LLM и сфокусировался на новой области: многоходовые атаки (multi-turn jailbreaking).
Zochi обнаружил, что модели иногда выдают кусочки запрещённой информации, делая вид, что всё под контролем, т.е формально соблюдая правила. Он назвал это «частичным подчинением».

Чтобы такие штуки ловить и использовать, Zochi в качестве решения придумал Siege - фреймворк, который атакует LLM по ветвям диалога с помощью деревьев поиска. Эффективно и с минимальными затратами.

Результаты:
• GPT-3.5-Turbo: взломан в 100% попыток;
• GPT-4: взломан в 97%;
• Запросов меньше, чем у любых других методов.

Рецензенты поставили высокие 7 и 7 баллов (интересно, что случилось с 3м ревьером?), и советуют «пересмотеть текущие стратегии защиты ИИ».

3. EGNN-Fusion: биология, но вычислительно эффективная

Intology показали универсальности Zochi на задаче биоинформатики.
Проблема: предсказать сайты связывания белков с нуклеиновыми кислотами.

Решение: EGNN-Fusion — компактная и быстрая архитектура, в которой на 95% меньше параметров, чем у аналогов, а точность на уровне лучших решений.

Результат:
Сравнимая с SOTA-методами точность, при этом значительно ниже вычислительная нагрузка.

Работа завершена позже дедлайна ICLR, находится на рецензии в журнале.

Обещанный нюанс:
Тон и метрики репорта искажает восприятие. Надеюсь, что это не манипуляция, но выглядит не очень этично.

Авторы приводят комментарии рецензентов воркшопа ICLR (т.е. людей), но сравнивают себя с другими ИИ-системами на основе оценок автоматического рецензента NeurIPS, т.е. ИИ. Тот же AI Scientist v2 получил 6,33 балла по оценкам людей на воркшопе, а не меньше 4 баллов, как на первом графике. Не скромненько.

Но усилия точно на пользу науке. По моему непрошенному мнению, любопытно научить их писать заявки на гранты и сравнить на основе метрики, сколько ИИ-ученые поднимут денег на свои исследования (по аналогии с этим экспериментом).
Будет AI PI (principal investigator). И кому-то придется делиться кафедрой. Шутка. На самом деле, в академической среде агент, отвечающий за гранты облегчит всем жизнь. Но это уже совсем другая история.

И опять же, пока и так мого открытых вопросов: как правильно интегрировать ИИ в научное сообщество, кто автор этих научных открытий, как должна выглядеть верификация людьми, кто и как может использовать ИИ-ученых. Ведь наука не только про прогресс, но и про этику и ответственность.

📝Отчёт
🖥Repo
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from TechSparks
Очень полезная, хотя и непростая для чтения как любой научный текст, статья в Nature посвящена, на первый взгляд, довольно узкой задаче: использованию больших языковых моделей в процессах поиска и открытия новых в чем-либо полезных материалов.
В начальных разделах статьи указывается, что технологии обработки естественного языка, позволили, наконец, содержательно обрабатывать весь массив когда-либо опубликованных работ по теме, извлекая из них данные, которые формируют большие обучающие выборки.
В разделе про LLM содержится важное замечание: Recently, LLMs have shown their ability in learning universal language representations, text understanding and generation. В итоге в конкретном исследуемом случае оказывается, что Leveraging semantic textual similarity, new materials with similar properties can be identified without human labeling or supervision.
Познавательно выглядит сравнение уже давно использовавшихся пайплайнов открытия новых материалов с использованием методов обработки естественного языка и новых возможностей, появившихся благодаря LLM. Описано, как и почему необходим файнтюнинг готовых моделей.
Речь и здесь уже идет о создании автономных агентов, способных целиком самостоятельно планировать и проводить исследования, причем — снова как люди — эти агенты по ходу дела обучаются и самосовершентвуются: In-context learning allows an AI agent to accumulate experience and evolve so that its actions become increasingly consistent, logical, and effective over time.
При внимательном чтении статья позволяет заглянуть в будущее научных исследований и понять логику, по которой это будущее создается. А еще — почувствовать объем нерешенных проблем, гарантирующих, что в обозримом будущем тем людям, кто создает автономный пайплайн научных открытий, безработица не грозит:)
А для особо любознательных открывается, насколько же наивна, безосновательна и слаба критика ИИ в научных исследованиях со стороны якобы экспертов. Им следует поизучать матчасть. Можно с этой статьи и начать.
https://www.nature.com/articles/s41524-025-01554-0
Forwarded from Адель и МЛь
У AI лаб наверняка есть сговор - иначе почему они релизятся в один и тот же день?

За сегодня у нас было вот что:

- Deepseek V3 обновился, обходя на бенчмарках все неризонинг модели, включая GPT-4.5. При этом инпут дешевле в 107 раз, а аутпут в 214 🫠 И это open source.

- Gemini 2.5 pro с ноги выходит почти везде на первое место. При этом она ризонинг, мультимодальная, с окном в миллион токенов, набирает 18% на Humanity’s Last Exam.

- OpenAI наконец добавили нормальные генерацию и редактирование изображений в gpt-4o. Есть фотореализм, нормальные тексты на картинках, и можно генерить видео прямо из чата.

Урожайный день выдался.
нарисуй мне добрый домик -> теперь дорисуй на дорожку золотистого ретривера -> и добавь туда мою жену Вику (она очень красивая и красиво одевается), пусть она выглядывает из окна
AI для Всех
Тут забавно оказалось – если в нейронку которая генерирует картинку из текстового запроса, в конце запроса дописать «unreal engine», то качество генерации сильно повысится 🌝 то есть буквально, ссылаясь в тексте на что-то у чего обычно офигенная графика, можно…
Насмотревшись на то, как интернет вновь заполонила студия Ghibli, решил попробовать приемчики из того же арсенала.

Кажется мы прошли полный круг и старые трюки снова работают. Если дописать к промту в ChatGPT unreal engine, artstudio - то картинки становятся симпатичнее. Прям как в старые добрые времена.

Угадайте какая из картинок: draw water angel, а какая draw water angel, unreal engine, artstudio?
Какая из картинок + unreal engine, artstudio?
Anonymous Poll
11%
1
89%
2
🔍 Внутренний мир Claude: Как разглядеть мышление ИИ

Команда Anthropic буквально препарировала нейронную сеть Claude, чтобы понять: как на самом деле работает современный искусственный интеллект. И вот что они обнаружили.

🌐 Языковые головоломки

Оказывается, Claude думает не на русском, английском или китайском, а на каком-то универсальном "языке концепций". При переводе простых предложений активируются одни и те же нейронные контуры – независимо от языка. С ростом модели межъязыковая общность только усиливается: Claude 3.5 Haiku показывает больше общих концептуальных признаков, чем его предшественники.

🧮 Математика "про себя" .

Как Claude считает в уме? Не так, как мы думали. Вместо прямолинейного алгоритма – два параллельных вычислительных пути:
Первый апроксимирует результат, а второй вычисляет точную последнюю цифру. Самое забавное – сама модель не осознает эту изящную стратегию. Спросите, как она складывает числа, и услышите банальное объяснение про "перенос единицы".

📝 Логика с подвохом

Исследователи обнаружили, что у Claude есть любопытная особенность: она может ПРИДУМЫВАТЬ логические шаги. То есть создавать убедительное, но не всегда правдивое объяснение.

Механизм работает так:

По умолчанию модель склонна отказываться от ответа. При появлении "знакомой сущности" включаются другие контуры. Начинается процесс "мотивированного рассуждения"

🎭 Игра в прятки с безопасностью

Даже при попытках обойти защитные механизмы (так называемый джейлбрейк) внутри Claude идет сложная внутренняя борьба между:

Стремлением к грамматической связности и встроенными ограничениями безопасности

Исследование показало: современный ИИ – это не просто продвинутый калькулятор слов, а целая вселенная внутренних процессов и механизмов.

📝 Блог

🎦 Видео

🔬 Paper1

🧪 Paper2
Как работает MCP: протокол для интеграции ИИ с внешним миром 🔥

Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).

Что такое MCP и почему это важно

Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.

Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.

Как это работает

Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:

1. Участники общения

- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга

2. Как происходит диалог

Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:

1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам

Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.

Что умеет передавать MCP

Ресурсы — "Вот, посмотри на это"

Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса

Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например, telegram://channels/@channel_name/messages — это адрес сообщений в конкретном канале.

Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.

Инструменты — "Сделай это для меня"

Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"

Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.

Промпты — "Используй этот шаблон"

Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"

Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.

Моя интеграция для Telegram: что она позволяет

За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:

1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент

Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:

1. ИИ решает использовать инструмент get_popular_messages
2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде

Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.

Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
2025/06/28 01:14:22
Back to Top
HTML Embed Code: