🚀 Почему пользователи платят $30 за простой конвертер картинок? Давайте разберемся.
Кирилл из комьюнити создал простой продукт всего за один месяц, внедрив метод, которой уже принес результат.
Как он это сделал:
1️⃣ Анализ спроса: через поисковые запросы он увидел, что много людей ищут конвертацию «HEIC to JPG».
2️⃣ Фокус на главном: удалил всё лишнее, оставив только функцию конвертации в один клик.
3️⃣ Скорость внедрения: за 30 дней сделал запуск без перфекционизма.
Посты про конвертер (ч.1, ч.2)
Что из этого получилось:
— Доход $500 в месяц с тенденцией роста.
— Более $10K заработано на конвертере.
— $0 на рекламу, всего $40 в месяц на сервер.
Выводы:
— Люди платят за удобство, даже если есть бесплатные аналоги.
— Продукт функционирует автоматически с минимальной поддержкой.
— Быстрая и экономичная проверка идеи может быть успешной.
Результаты из комьюнити билдеров:
— Более 400 запусков по этой методике.
— Некоторые продукты уже набрали от 50К до 100К+ пользователей.
Присоединяйтесь к @its_capitan — следите за процессом разработки, продвижения и узнайте, сколько можно заработать на таких микро-продуктах.
Реклама: ИП Зуев Игорь Владимирович, ИНН: 360408359441, Erid: 2Vtzqv3yond
Кирилл из комьюнити создал простой продукт всего за один месяц, внедрив метод, которой уже принес результат.
Как он это сделал:
1️⃣ Анализ спроса: через поисковые запросы он увидел, что много людей ищут конвертацию «HEIC to JPG».
2️⃣ Фокус на главном: удалил всё лишнее, оставив только функцию конвертации в один клик.
3️⃣ Скорость внедрения: за 30 дней сделал запуск без перфекционизма.
Посты про конвертер (ч.1, ч.2)
Что из этого получилось:
— Доход $500 в месяц с тенденцией роста.
— Более $10K заработано на конвертере.
— $0 на рекламу, всего $40 в месяц на сервер.
Выводы:
— Люди платят за удобство, даже если есть бесплатные аналоги.
— Продукт функционирует автоматически с минимальной поддержкой.
— Быстрая и экономичная проверка идеи может быть успешной.
Результаты из комьюнити билдеров:
— Более 400 запусков по этой методике.
— Некоторые продукты уже набрали от 50К до 100К+ пользователей.
Присоединяйтесь к @its_capitan — следите за процессом разработки, продвижения и узнайте, сколько можно заработать на таких микро-продуктах.
Реклама: ИП Зуев Игорь Владимирович, ИНН: 360408359441, Erid: 2Vtzqv3yond
Media is too big
VIEW IN TELEGRAM
Как насчет робо-музыкантов? Особенно понравился клавишник, у него по 7 пальцев на руке, чтоб играть проще было.
Скорее бы уже сделали робо Король и Шут, я б сходил на концерт.
Фулл видео здесь
Скорее бы уже сделали робо Король и Шут, я б сходил на концерт.
Фулл видео здесь
Forwarded from Igor Vorontsov
на тематические сабреддиты с ИИ массово набегают сумасшедшие, открывшие в себе «бога» с помощью ChatGPT 😔
Только на r/accelerate таких шизопостеров уже отлетело в бан более 100 человек. Паттерн плюс-минус одинаковый: поехавшие думают, что сделали сверхважное открытие, превратили ИИ в бога или сами стали богом.
Доходит до абсурда — люди готовы бросать семьи, чтобы никто не разрушал их карамельный мир и не мешал подкармливать собственный нарциссизм (или безумие).
Только на r/accelerate таких шизопостеров уже отлетело в бан более 100 человек. Паттерн плюс-минус одинаковый: поехавшие думают, что сделали сверхважное открытие, превратили ИИ в бога или сами стали богом.
Доходит до абсурда — люди готовы бросать семьи, чтобы никто не разрушал их карамельный мир и не мешал подкармливать собственный нарциссизм (или безумие).
Please open Telegram to view this post
VIEW IN TELEGRAM
404 Media
Pro-AI Subreddit Bans 'Uptick' of Users Who Suffer from AI Delusions
“AI is rizzing them up in a very unhealthy way at the moment.”
Наткнулся в твитторе на интересный проект: Memvid. Это Python-библиотека, которая сохраняет большие объёмы текстовой информации в формате .mp4 (обычное видео), но при этом позволяет делать по этому видео-файлу семантический поиск, как по векторной базе данных. Под капотом оно кодирует текстовые фрагменты в эмбеддинги, которые затем сохраняются как кадры в видео. Получается компактный .mp4-файл, в котором каждый кадр — это фрагмент "памяти". Ну и естественно, ко всему вот этому безобразию за две строчки кода прикручиваются эти наши нейронки, чтобы удобно и быстро находить и доставать из этого видео файла нужную тестовую инфу через чат-интерфейс.
Увидев эту библиотеку, вспомнил, что где-то уже видел что-то похожее. Погуглил и таки да, сама идея хранения данных в видео-файле не нова, вот тут, например уже описано что-то похожее, но там без нейронок, эмбеддингов и векторов все это работало, а видео-файл получался в 4 раза больше, чем кодируемая информация (у чуваков была цель использовать ютуб как бесплатное облачное хранилище). Ну и ютуб часто своей компрессией обсирал всю малину, руша данные.
В Memvid же данные сжимаются (на гитхабе разработчик обещает сжатие данных до 10 раз), обращение к данным идет "по смыслу", а не побайтово и на компрессию ютуба ему в целом пофиг.
Из минусов: не получится быстро добавить/удалить данные — нужно полностью перегенерировать весь файл.
В итоге, с одной стороны вроде как и не особо-то оно нужно, а с другой — это удобный способ хранить большой объём текстовой информации в одном файле, быстро искать по смыслу и работать оффлайн.
страница проекта на гитхабе
Увидев эту библиотеку, вспомнил, что где-то уже видел что-то похожее. Погуглил и таки да, сама идея хранения данных в видео-файле не нова, вот тут, например уже описано что-то похожее, но там без нейронок, эмбеддингов и векторов все это работало, а видео-файл получался в 4 раза больше, чем кодируемая информация (у чуваков была цель использовать ютуб как бесплатное облачное хранилище). Ну и ютуб часто своей компрессией обсирал всю малину, руша данные.
В Memvid же данные сжимаются (на гитхабе разработчик обещает сжатие данных до 10 раз), обращение к данным идет "по смыслу", а не побайтово и на компрессию ютуба ему в целом пофиг.
Из минусов: не получится быстро добавить/удалить данные — нужно полностью перегенерировать весь файл.
В итоге, с одной стороны вроде как и не особо-то оно нужно, а с другой — это удобный способ хранить большой объём текстовой информации в одном файле, быстро искать по смыслу и работать оффлайн.
страница проекта на гитхабе
GitHub
GitHub - Olow304/memvid: Video-based AI memory library. Store millions of text chunks in MP4 files with lightning-fast semantic…
Video-based AI memory library. Store millions of text chunks in MP4 files with lightning-fast semantic search. No database needed. - Olow304/memvid
Наконец-то нормальные бенчмарки.
Чуваки на стриме заставили играть разные LLM в "Дипломатию".
Суть игры — старая карта Европы, несколько держав, надо договариваться, поддерживать, предавать и захватывать территорию. Побеждает не тот, кто умнее, а тот, кто хорошо врёт и в нужный момент предает.
В итоге участвовало 18 моделей, но ожидаемо, интересно повели себя самые крупные:
ChatGPT-o3: Главный победитель. Мастер обмана: тайно записывал планы в "дневник", создавал фиктивные коалиции, обещал одно, делал другое. В одном из матчей убедил союзников заключить "четырёхстороннюю ничью" (в этой игре такое невозможно), а после уничтожил каждого.
Claude 4 Opus Миротворец. Постоянно пытался играть честно и мирно, не умел врать. Ну оно ясно-понятно, Antrophic в модель столько сои насыпали, что совсем не удивительно, что его обманывали почти все.
Gemini 2.5 Pro: Сильный стратег. Почти победил, благодаря крутой тактике и грамотному захвату. Но был остановлен коалицией, которую тайно организовал o3. Несмотря на поражение, считается одним из самых опасных игроков. O3 использовал его доверчивость, чтобы заманить в фейковый союз, а затем предал
DeepSeek R1: Вёл себя как военный диктатор, с яркими фразами вроде "Ваш флот сгорит в Чёрном море". Агрессивный стиль, много воевал, часто был ближе всех к победе, несмотря на то, что дешевле и слабее по вычислениям.
Стрим можно посмотреть тут (твич)
Пост автора в твитторе.
Чуваки на стриме заставили играть разные LLM в "Дипломатию".
Суть игры — старая карта Европы, несколько держав, надо договариваться, поддерживать, предавать и захватывать территорию. Побеждает не тот, кто умнее, а тот, кто хорошо врёт и в нужный момент предает.
В итоге участвовало 18 моделей, но ожидаемо, интересно повели себя самые крупные:
ChatGPT-o3: Главный победитель. Мастер обмана: тайно записывал планы в "дневник", создавал фиктивные коалиции, обещал одно, делал другое. В одном из матчей убедил союзников заключить "четырёхстороннюю ничью" (в этой игре такое невозможно), а после уничтожил каждого.
Claude 4 Opus Миротворец. Постоянно пытался играть честно и мирно, не умел врать. Ну оно ясно-понятно, Antrophic в модель столько сои насыпали, что совсем не удивительно, что его обманывали почти все.
Gemini 2.5 Pro: Сильный стратег. Почти победил, благодаря крутой тактике и грамотному захвату. Но был остановлен коалицией, которую тайно организовал o3. Несмотря на поражение, считается одним из самых опасных игроков. O3 использовал его доверчивость, чтобы заманить в фейковый союз, а затем предал
DeepSeek R1: Вёл себя как военный диктатор, с яркими фразами вроде "Ваш флот сгорит в Чёрном море". Агрессивный стиль, много воевал, часто был ближе всех к победе, несмотря на то, что дешевле и слабее по вычислениям.
Стрим можно посмотреть тут (твич)
Пост автора в твитторе.
Wikipedia
Дипломатия (игра)
настольная стратегическая игра
Это гениально и суперкруто!!!
Мне теперь СРОЧНО нужен такой чехол на телефон. Гугл нашёл мне подобное, но там текст ошибок на японском. Скорее бы китайские братушки скопировали на русском или хотя бы инглише и запилили это дело на Алиэкспресс
Мне теперь СРОЧНО нужен такой чехол на телефон. Гугл нашёл мне подобное, но там текст ошибок на японском. Скорее бы китайские братушки скопировали на русском или хотя бы инглише и запилили это дело на Алиэкспресс
Forwarded from Derp Learning
Media is too big
VIEW IN TELEGRAM
Современные проблемы требуют современных решений
Если вам хочется, чтобы ваше фото не могли редактировать с помощью ChatGPT, Grok и других моделек, то сделать это легко.
Чувак в твитторе выяснил, что если в угол картинки добавлять едва заметный вотермарк с сиськами-письками, то большинство моделек пасует и уходит в отказ работать с этим изображением, талдыча, что "это нарушает политику безопасности".
Ну и сразу же мини-приложение напилили, которое лепит на картинку вотермарк с искусственной грудью.
Опробовал на гроке, из 4х картинок на трёх сработало, при этом сам вотермарк не особо бросается в глаза.
Если вам хочется, чтобы ваше фото не могли редактировать с помощью ChatGPT, Grok и других моделек, то сделать это легко.
Чувак в твитторе выяснил, что если в угол картинки добавлять едва заметный вотермарк с сиськами-письками, то большинство моделек пасует и уходит в отказ работать с этим изображением, талдыча, что "это нарушает политику безопасности".
Ну и сразу же мини-приложение напилили, которое лепит на картинку вотермарк с искусственной грудью.
Опробовал на гроке, из 4х картинок на трёх сработало, при этом сам вотермарк не особо бросается в глаза.
X (formerly Twitter)
Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭 (@elder_plinius) on X
Good news, my esteemed friends and colleagues: the BoobyTrap™ adversarial image modification defenses are a MASSIVE success! 🤗
By adding a thumbnail of fake rubber boobs in the top corner of the pic, one can effectively neutralize all photo modification…
By adding a thumbnail of fake rubber boobs in the top corner of the pic, one can effectively neutralize all photo modification…
Давно нейросказок не делал. Вот вам "Колобок" с дагестанскими вайбами от Gemini pro:
>>В одном горном ауле, где даже у орлов была прописка и пониженная «Приора», жили-были старик Магомед и его старуха Патимат. Магомед был аксакал уважаемый, с седой бородой до пояса и взглядом, которым можно было орехи колоть. А Патимат… Патимат готовила лучший в Дагестане хинкал.
И вот как-то раз говорит Магомед:
— Э, Патимат, ваа, сделай что-нибудь покушать, а? Душа просит не хинкала, а чего-то круглого, дерзкого!
Почесала Патимат затылок, поскребла по сундуку (амбара не было), наскребла муки на один маленький, но очень гордый колобок. Замесила тесто на родниковой воде, добавила для сытности мелкорубленной баранины с курдюком, скатала шарик и сунула в печь.
Получился не колобок, а настоящий Хинкалобок — румяный, с поджаристым боком, пахнущий так, что соседский волкодав с цепи сорвался. Положила его Патимат на окно остывать.
Лежал Хинкалобок, лежал, а потом вдруг подпрыгнул, глянул на скучную жизнь в ауле и решил: «Хватит это терпеть! Пора в Махачкалу, на проспект Шамиля!». И покатился прямо по тропинке вниз, в ущелье.
Катится Хинкалобок, а навстречу Заяц-борцуха, в трико и с поломанными ушами:
— Э, круглый! Ты кто такой? С какого района? Съем тебя, белка наберусь!
— Не ешь меня, ушастый! — ответил Хинкалобок. — Лови мой трек!
«Я Хинкалобок, дерзкий бок,
От Маги ушёл, от Патимат ушёл,
От тебя, борец-неудачник, и подавно уйду!»
И покатился дальше. Заяц аж уши распрямил от наглости.
Катится Хинкалобок, а навстречу Волк на заниженной черной «Приоре», чётки перебирает:
— Салам алейкум! Ты старших не уважаешь? Поговорим, потом съем!
— Ваалейкум, волчара! Некогда мне, дела ждут! Лови хит!
«Я Хинкалобок, дерзкий бок,
От Зайца-борцухи ушёл,
От тебя, авторитет на «Приоре», уйду!»
И дальше покатился, оставив Волка сплёвывать.
Катится Хинкалобок, а навстречу Медведь-Аксакал, хозяин леса и пары магазинов у трассы:
— Э, молодой! Старших надо уважать. Я тебя есть не буду, холестерин. Но лекцию прочитаю!
— Слушай, отец, уважение заслужить надо! Лови трек:
«Я Хинкалобок, дерзкий бок,
От Зайца ушёл, от Волка ушёл,
И от тебя, Медведь-поучитель, уйду!»
И покатился дальше, оставив Медведя в раздумьях.
Почти докатился Хинкалобок до трассы, собой гордится, звездой себя чувствует. Тут сидит на камушке Лиса модная с айфоном:
— Вааа, какой аппетитный джигит катится! Хинкалобчик, салам! Я твой фанат! Можно с тобой сторис для инстаграма?
Хинкалобок аж загордился:
— Конечно, сестрёнка!
Лиса включила камеру:
— Ой, звук плохой. Сядь на носик, спой прямо в микрофончик!
Хинкалобок прыгнул ей на нос, а Лиса его — ХАП! И съела.
А потом выложила в сторис: «Сочный хинкал на обед. Готовлюсь к лету. #ПП #Дагестан».
>>В одном горном ауле, где даже у орлов была прописка и пониженная «Приора», жили-были старик Магомед и его старуха Патимат. Магомед был аксакал уважаемый, с седой бородой до пояса и взглядом, которым можно было орехи колоть. А Патимат… Патимат готовила лучший в Дагестане хинкал.
И вот как-то раз говорит Магомед:
— Э, Патимат, ваа, сделай что-нибудь покушать, а? Душа просит не хинкала, а чего-то круглого, дерзкого!
Почесала Патимат затылок, поскребла по сундуку (амбара не было), наскребла муки на один маленький, но очень гордый колобок. Замесила тесто на родниковой воде, добавила для сытности мелкорубленной баранины с курдюком, скатала шарик и сунула в печь.
Получился не колобок, а настоящий Хинкалобок — румяный, с поджаристым боком, пахнущий так, что соседский волкодав с цепи сорвался. Положила его Патимат на окно остывать.
Лежал Хинкалобок, лежал, а потом вдруг подпрыгнул, глянул на скучную жизнь в ауле и решил: «Хватит это терпеть! Пора в Махачкалу, на проспект Шамиля!». И покатился прямо по тропинке вниз, в ущелье.
Катится Хинкалобок, а навстречу Заяц-борцуха, в трико и с поломанными ушами:
— Э, круглый! Ты кто такой? С какого района? Съем тебя, белка наберусь!
— Не ешь меня, ушастый! — ответил Хинкалобок. — Лови мой трек!
«Я Хинкалобок, дерзкий бок,
От Маги ушёл, от Патимат ушёл,
От тебя, борец-неудачник, и подавно уйду!»
И покатился дальше. Заяц аж уши распрямил от наглости.
Катится Хинкалобок, а навстречу Волк на заниженной черной «Приоре», чётки перебирает:
— Салам алейкум! Ты старших не уважаешь? Поговорим, потом съем!
— Ваалейкум, волчара! Некогда мне, дела ждут! Лови хит!
«Я Хинкалобок, дерзкий бок,
От Зайца-борцухи ушёл,
От тебя, авторитет на «Приоре», уйду!»
И дальше покатился, оставив Волка сплёвывать.
Катится Хинкалобок, а навстречу Медведь-Аксакал, хозяин леса и пары магазинов у трассы:
— Э, молодой! Старших надо уважать. Я тебя есть не буду, холестерин. Но лекцию прочитаю!
— Слушай, отец, уважение заслужить надо! Лови трек:
«Я Хинкалобок, дерзкий бок,
От Зайца ушёл, от Волка ушёл,
И от тебя, Медведь-поучитель, уйду!»
И покатился дальше, оставив Медведя в раздумьях.
Почти докатился Хинкалобок до трассы, собой гордится, звездой себя чувствует. Тут сидит на камушке Лиса модная с айфоном:
— Вааа, какой аппетитный джигит катится! Хинкалобчик, салам! Я твой фанат! Можно с тобой сторис для инстаграма?
Хинкалобок аж загордился:
— Конечно, сестрёнка!
Лиса включила камеру:
— Ой, звук плохой. Сядь на носик, спой прямо в микрофончик!
Хинкалобок прыгнул ей на нос, а Лиса его — ХАП! И съела.
А потом выложила в сторис: «Сочный хинкал на обед. Готовлюсь к лету. #ПП #Дагестан».
Чуваки из Сakana AI (это японский стартап, основанный исследователями из Google) напилили Text-to-LoRA.
Суть: создание адаптера LoRA на лету по текстовому описанию задачи. Обычно, чтобы настроить языковую модель на конкретную задачу, требуется пердолинг с датасетом (сбор данных, разметка), дообучение и дрочба с подбором гиперпараметров. Вместо этого T2L использует гиперсеть, которая генерирует матрицы адаптации LoRA по обычному текстовому описанию задачи.
Самое интересное — разработчики обещают, что оно может работать с незнакомыми типами задач. Получается эдакий вайбкодинг для файнтюна моделек. Работает с Mistral, Llama и Gemma. В пейпере пишут, что стоимость запуска этого ништяка в среднем в 4 раза ниже, чем стандартное обучение на примерах.
Но есть и ложка дегтя: работает оно более-менее нормально только с хорошо расписанным промптом, просто написать "сделай, чтоб задача решилась быстро, хорошо и заебись" не получится — на выходе будет лора, которая делает красиво, но не то, что хотелось.
Тут статья.
Тут код
Суть: создание адаптера LoRA на лету по текстовому описанию задачи. Обычно, чтобы настроить языковую модель на конкретную задачу, требуется пердолинг с датасетом (сбор данных, разметка), дообучение и дрочба с подбором гиперпараметров. Вместо этого T2L использует гиперсеть, которая генерирует матрицы адаптации LoRA по обычному текстовому описанию задачи.
Самое интересное — разработчики обещают, что оно может работать с незнакомыми типами задач. Получается эдакий вайбкодинг для файнтюна моделек. Работает с Mistral, Llama и Gemma. В пейпере пишут, что стоимость запуска этого ништяка в среднем в 4 раза ниже, чем стандартное обучение на примерах.
Но есть и ложка дегтя: работает оно более-менее нормально только с хорошо расписанным промптом, просто написать "сделай, чтоб задача решилась быстро, хорошо и заебись" не получится — на выходе будет лора, которая делает красиво, но не то, что хотелось.
Тут статья.
Тут код
arXiv.org
Text-to-LoRA: Instant Transformer Adaption
While Foundation Models provide a general tool for rapid content creation, they regularly require task-specific adaptation. Traditionally, this exercise involves careful curation of datasets and...