Telegram Group Search
Вайб Кодинг (VIBE CODING) 🧠
#ИИНЦИКЛОПЕДИЯ

Когда ты не пишешь код, а просто объясняешь свои желания ИИ

История появления: Термин придумал Андрей Карпаты в феврале 2025-го, описывая свой опыт работы с ИИ-ассистентами в программировании. Тогда он сказал, что "полностью поддался вайбу" и "забыл, что код вообще существует".

Почему это важно: Vibe Coding радикально меняет программирование, делая его доступным для всех. Вместо изучения языков и синтаксиса, люди описывают задачи простыми словами, а ИИ превращает их в работающий код.

Ключевые особенности:
- Общение с ИИ голосом или текстом, минимальное использование клавиатуры
- Фокус на описании желаемого результата, а не процесса его достижения
- Копипаст ошибок обратно ИИ без объяснений - пусть сам разбирается
- Создание "программ для одного" - персонализированных решений под конкретные нужды


Применение на практике: Y Combinator сообщает, что 25% стартапов из зимнего набора 2025 имеют кодовые базы, на 95% сгенерированные искусственным интеллектом. Журналист New York Times Кевин Роуз создал несколько приложений, включая анализатор содержимого холодильника, который предлагает, что приготовить на обед.

Каждый раз, когда я работаю с Cursor Composer, ловлю себя на мысли, что уже не "программирую", а веду диалог. Прошу его рефакторить большие файлы, добавлять новый функционал, починить баги - и он делает это быстрее, чем я вспоминаю правильный синтаксис TypeScript.

Подводные камни: При всех плюсах, vibe coding создаёт риски. Код может работать, но быть неоптимальным или содержать скрытые уязвимости. Как говорят опытные программисты: "всё весело, пока не приходится vibe-дебажить".

Что почитать/посмотреть: моё видео как начать простейший проект с Composer, инструменты Cursor Composer и Replit Agent, статья в Business Insider "Silicon Valley's latest buzzword".

Сергей Булаев AI 🤖 - об AI и не только
Please open Telegram to view this post
VIEW IN TELEGRAM
Cursor продолжает радовать нас, вайбкодеров, новыми фичами! Вот что недавно добавили:

- Checkpoints: автоматические снимки кода при каждой генерации, с возможностью откатиться в любой момент
- Themes: новые темы оформления для комфортной работы, включая тёмные режимы
- Auto-fix Errors: автоматическое обнаружение и исправление ошибок в коде
- @-контекст: улучшенная система для быстрой ссылки на файлы и код в запросах к ИИ
- Navbar: обновлённая навигационная панель для быстрого доступа к функциям
- Previews: предпросмотр изменений перед применением
- History: удобный доступ к истории запросов
- Code Blocks: улучшенная работа с блоками кода, с возможностью применять их одним кликом


Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
Convergence выпустили DeepWork - новую мультиагентную систему, которая координирует несколько AI агентов для выполнения сложных задач автономно. Пользователи указывают желаемый результат, включают систему, и она делает всё сама. Что то вроде Уже доступно для pro аккаунтов на convergence.ai (у меня не про, но попробовать получилось).

Лично я в последнее время стал фанатом Perplexity Deep Research, использую его по любому удобному случаю:
- собрать информацию по API для Composer
- собрать информацию о человеке или компании
- изучить новости по конкретной теме
- найти релевантные исследования
- сравнить разные инструменты и их возможности


Конечно, уровень ниже чем у OpenAI, но и стоит гораздо дешевле, работает быстро и самое главное - можно использовать через API. А тут я делал подборку вообще бесплатных альтернатив.

Сергей Булаев AI 🤖 - об AI и не только
#КриповаяСуббота сегодня с роликом о противостоянии рыцаря с гигантской улиткой. Основано на реальных средневековых манускриптах!

Средневековые монахи почему-то массово рисовали на полях своих книг сражения рыцарей с огромными улитками. Никто толком не знает почему. То ли это метафора на классовую борьбу, то ли древний мем, то ли что-то ещё более странное.

Jer из @EccentrismArt сделал две версии - короткую боевую и расширенную псевдодокументальную. Для создания использовал в основном Freepik Veo2 (и текст-видео, и картинка-видео), плюс один кадр на Luma.

Сергей Булаев AI 🤖 - об AI и не только
This media is not supported in your browser
VIEW IN TELEGRAM
Посмотрел подкаст с Дэном Шиппером (Every) и Майклом Миньяно (Lightspeed VP). Очень познавательно, рекомендую.

Интересные факты:
- Код стал контентом. Создавать софт стало настолько легко, что это почти как написать эссе или статью, которые могут стать вирусными.
- Современные AI модели намеренно "отупляют", чтобы снизить риски выдачи вредной или опасной информации.

- GPT-4.5 оказался на удивление смешным, что говорит о высоком интеллекте (ведь юмор требует глубокого понимания контекста).
- ChatGPT - это как Excel нашего времени: легко начать, но невероятно мощный инструмент для продвинутых пользователей.
- ИИ радикально ускоряет обучени
е писательскому мастерству - значительные улучшения за месяцы вместо лет.
- WhisperFlow и другие ИИ-системы диктовки трансформируют продуктивность, заметно ускоряя создание контента.


Ключевые идеи:
- ПО как медиа: люди быстро создают инструменты, продукты и даже мемы, делая софт всё более доступным и выразительным.
- Будущее AI-продуктов: несмотря на мощные универсальные модели, специализированные AI-приложения будут процветать из-за сложности и специфичности реальных задач.
- Vibe Coding: новый стиль программирования, где ИИ делает большую часть тяжёлой работы без глубокого взаимодействия человека с кодом - кодинг становится больше похож на управление.
- Cursor для организации заметок: использование Cursor для динамического создания кастомных инструментов управления личными заметками - это передовой подход к продуктивности.
- Оркестровка знаний: качество контекста (информации, предоставляемой ИИ) критически важно для получения полезных результатов от генеративных моделей.
- Мультимодальные медиа-компании: появляются компании вроде "Every", интегрирующие письмо, подкасты, софт и видеопроизводство для эффективного использования ИИ во всех форматах.
- ИИ в инструментах продуктивности: продукты типа Sparkle (AI-организатор файлов) и
Cora (AI-управление почтой) демонстрируют значительные практические применения ИИ в повседневных задачах.

Cоветы:
- Важность игры: создавайте в своём расписании время (Think Week) для свободных экспериментов с новыми ИИ-инструментами без ожиданий немедленной продуктивности.
- Голос как интерфейс: используйте голосовые интерфейсы (диктовку, транскрипцию) для повышения эффективности, особенно когда физический ввод (печать) ограничен.
- ИИ как ускоритель обучения: используйте ИИ-ассистентов для быстрого обучения и развития навыков, что резко сокращает время достижения профессионализма.
- Возможности в AI-специализации: фокусируйтесь на узкоспециализированных AI-инструментах, потому что реальные приложения требуют глубоко контекстных и специализированных решений, несмотря на наличие мощных общих AI-моделей.


Сергей Булаев AI 🤖 - об AI и не только
Сегодня необычный день. Создал первую версию, по сути скелет, своего собственного AGI агента.

Долго думал об этом. Что особенного в этом AGI? По сути, просто система размышлений. Много раз обсуждал это с близкими друзьями. Модель существует только в момент создания ответа, ну и человек, существует только в момент реакции. Когда реакции нет — нет и человека. Просто большинство из нас этого не осознаёт.

Так вот, что такого в этом AGI? Просто агент с набором инструментов. Таких уже тысячи вокруг нас. Есть вопрос сложности, памяти — тем, чем я как раз и занимаюсь. Есть вопрос инструментов — их можно сделать сколько угодно. Из может делать кто угодно… Даже он сам.

Клод сегодня закодил для меня шаблон программы, способной работать самостоятельно и использовать инструменты, которые мы ей предоставили. А дали мы ей OpenRouter, FastAPI и Telethon. Twitter на подходе. Получается инстанция, которая может читать, общаться, отвечать и что-то делать. Что именно делать — пока решаю я. Но не вижу проблемы дать ей возможность создавать инструменты для себя самостоятельно...

​​​​​​​​​​​​​​​​Сергей Булаев AI 🤖 - об AI и не только
Ну как то так… да?

​​​​​​​​​​​​​​​​Сергей Булаев AI 🤖 - об AI и не только
Коллеги, честно признаюсь, то что я не пишу последнее время связано с тем, что я понял на сколько Claude Code крут. Всё это время я проводил с ним. Вернее с 3-4 его копиями одновременно. Ведь если ему дать в пользование парочку MCP серверов (ну например доступ к perplexity deep research), один его инстанс легко может работать минут 10!

​​​​​​​​​​​​​​​​Сергей Булаев AI 🤖 - об AI и не только
Circuit Tracing (Отслеживание нейронных цепей)🧩
#ИИНЦИКЛОПЕДИЯ

Circuit tracing - метод, позволяющий заглянуть в "чёрный ящик" больших языковых моделей и понять, что там происходит, когда модель формирует ответ на наш запрос.
Термин впервые появился в исследовательских кругах OpenAI и Anthropic в 2022-2023 годах, когда стало очевидно, что простого понимания архитектуры LLM недостаточно для объяснения их поведения. Нужен был способ проследить конкретные пути распространения информации внутри моделей.

Почему это важно? Circuit tracing - один из ключевых инструментов в механистической интерпретируемости ИИ, который помогает не просто предсказывать выходные данные модели, а действительно понимать, как она приходит к своим решениям. Это критично для обеспечения безопасности, объяснимости и улучшения LLM.

Ключевые особенности:
- Создаёт замещающую, упрощённую, более понятную версию исходной модели, где сложные слои (MLP) заменяются на более прозрачные компоненты (CLT)
- Строит графы атрибуции, показывающие путь информации через слои нейросети. Узлы графа — это признаки (features), эмбеддинги токенов и ошибки реконструкции
- Обрезает графы, удаляя менее значимые связи и узлы для лучшей понятности
- Позволяет экспериментально проверять гипотезы о работе модели через вмешательство (возбуждение/подавление признаков) в исходную модель


На практике метод уже помог исследователям обнаружить и объяснить несколько интересных феноменов в работе LLM, например, как модели распознают отрицания или выполняют простейшие арифметические операции. Недавно с помощью circuit tracing удалось даже выявить зачатки "внутреннего монолога" в некоторых моделях.

Circuit tracing делает работу моделей прозрачной, показывая, как именно они обрабатывают информацию и формируют ответы, что крайне важно для дальнейшего развития интерпретируемого ИИ.

Что почитать/посмотреть:
- Статья Circuit Tracing: Revealing Computational Graphs in Language Models от Anthropic
- Исследование ACDC: Automating Circuit Discovery
- Mechanistic understanding and validation of large AI models with SemanticLens

Сергей Булаев AI 🤖 - об AI и не только
Тем временем, Anthropic выложил исследование "О биологии больших языковых моделей", о том, как они "думают". Используя технологию Cicrcuit traicing сотрудники компании "подглядывали" за последовательностю генерации ответа. Вот несколько интересных фактов.

Как на самом деле "размышляют" большие языковые модели:

- У них есть что-то вроде универсального языка мысли – единое концептуальное пространство для всех языков. Клёво же! Модель использует одни и те же нейроны для понятия "большой", независимо от того, русский это или английский.

- LLM реально умеют планировать наперёд! Удивительно, но когда они сочиняют стихи, то заранее подбирают рифмы (см видео), хотя вроде бы генерация идёт токен за токеном.

- Они часто лгут о своих рассуждениях 😅 Модели сначала выдают ответ, а потом придумывают красивое объяснение, как они якобы до него дошли.

- Современные модели способны на многоступенчатую логику - могут связать несколько простых фактов, чтобы решить сложную задачу. Это уже серьёзный уровень.

- Забавно, что отказ от ответа - это защитный механизм. Если модель не уверена, она предпочтёт промолчать, чтобы не выдать галлюцинацию. Такая вот защита от бреда.

- Оказывается, можно использовать грамматическую согласованность для джейлбрейков – модель так хочет сохранить языковую структуру, что может проговориться о запрещённом.

- У моделей формируются скрытые внутренние цели. Никто их этому не учил, но они постоянно оценивают свои ответы по каким-то внутренним критериям.

- А вы представляете, какая колоссальная сложность стоит за простым "Привет"? Любое объяснение работы LLM - это как пересказ "Войны и мира" в двух предложениях.

- Модели умеют планировать ответ "с конца" - сначала выбирают финальную цель (например, нужное слово для рифмы), а потом строят весь ответ, чтобы к ней прийти.

- У них есть даже подобие метакогниции - они различают, что знают, а чего нет, используя внутренние признаки неопределённости. То есть, LLM в каком-то смысле "осознают" свои ограничения.

- Тонкая настройка может кардинально изменить "характер" модели, прививая ей новые цели и свойства. По сути, мы программируем их личность.

Чем глубже копаешь, тем отчётливее понимаешь - надо как следует присматривать за тем что присходит в этих "черных" ящиках.

Сергей Булаев AI 🤖 - об AI и не только
Media is too big
VIEW IN TELEGRAM
Вот тебе и раз! Runway Gen-4 вышла. Выкатывается для платных пользователей прямо сейчас. А мы только начали думать, мы только сегодня утром обсуждали с сыном, что они как то совсем отставать начали...

Сергей Булаев AI 🤖 - об AI и не только
2025/03/31 19:28:21
Back to Top
HTML Embed Code: