Forwarded from Адовый UX
— Ну что, как мы улучшим дизайн сегодня?
— Может быть, поправим все те сотни косяков, что у нас накопились?
— Заткнись, уёбок! Мы будем круглить квадратные кнопки и квадратить круглые!🤘
— Может быть, поправим все те сотни косяков, что у нас накопились?
— Заткнись, уёбок! Мы будем круглить квадратные кнопки и квадратить круглые!
Please open Telegram to view this post
VIEW IN TELEGRAM
Там гугл релизнул gemini 2.
Радует что они наконец-то начали раздупляться и догонять остальных в сфере этих наших нейронок.
Изначально их модельки были тупы как дверь от сарая, у меня древняя ruGPT умнее местами вела себя.
Сейчас же очень часто гоняю для своих разных задач разные версии Gemini. До 4o или последних моделек Клода близнецам еще как до Плутона на собаках, но есть одна важная деталь — минимум сои (после каждого поста со словом "соя" куча отписок — видимо соевым не нравится, но что поделать, я как попугай готов повторять до последнего читателя, что соя и всратые ограничения тормозят не только развитие нейронок, но и вообще любую технологию). С Gemini пока не нужно придумывать каких-то джейлбрейков и прочих хождений между струйками с замешиванием каши на говне, просто просишь — и оно генерит ответ без лишних вопросов и поучений (если вы не спрашиваете как варить метамфетамин попутно насилуя карликов, конечно).
Раньше mistral умел так же, но сейчас они обновили модельку на своём сайте так, что на мой вопрос "Что нужно для подключения внешнего термостата к электрическому котлу отопления?" эта скотина три раза подряд отвечала мне, что нужно вызвать мастера, так как подключать термостат к электрическому котлу — это очень, блядь, опасно и нужно иметь специальное образование для этого.
Надеюсь, что Google не сбавит темп и будет дальше развивать модельки не особо засовывая свой нос в тему излишнего алигнмента и прочей псевдобезопасности.
Некоторые могут задвинуть тему про отсутствие ограничений в селф-хостед модельках (особенно после файнтюна), но давайте будем честны — запускать громоздкое говно на своем сервере, да еще и с GPU ради трех вопросов в день — это лютая шляпа, да и шекелей требует столько, что молоко в грудях скиснет. Короче, нормальные люди так не делают. А рассказы про опенсорс и злые корпорации оставим романтикам. Потому что хотелось бы получить ответ от нейронки на вопрос заданный с телефона прямо сейчас и прямо здесь, а не после пердолинга с докером и вечно ломающим обратную совместимость pytorch'ем после каждого обновления
Радует что они наконец-то начали раздупляться и догонять остальных в сфере этих наших нейронок.
Изначально их модельки были тупы как дверь от сарая, у меня древняя ruGPT умнее местами вела себя.
Сейчас же очень часто гоняю для своих разных задач разные версии Gemini. До 4o или последних моделек Клода близнецам еще как до Плутона на собаках, но есть одна важная деталь — минимум сои (после каждого поста со словом "соя" куча отписок — видимо соевым не нравится, но что поделать, я как попугай готов повторять до последнего читателя, что соя и всратые ограничения тормозят не только развитие нейронок, но и вообще любую технологию). С Gemini пока не нужно придумывать каких-то джейлбрейков и прочих хождений между струйками с замешиванием каши на говне, просто просишь — и оно генерит ответ без лишних вопросов и поучений (если вы не спрашиваете как варить метамфетамин попутно насилуя карликов, конечно).
Раньше mistral умел так же, но сейчас они обновили модельку на своём сайте так, что на мой вопрос "Что нужно для подключения внешнего термостата к электрическому котлу отопления?" эта скотина три раза подряд отвечала мне, что нужно вызвать мастера, так как подключать термостат к электрическому котлу — это очень, блядь, опасно и нужно иметь специальное образование для этого.
Надеюсь, что Google не сбавит темп и будет дальше развивать модельки не особо засовывая свой нос в тему излишнего алигнмента и прочей псевдобезопасности.
Некоторые могут задвинуть тему про отсутствие ограничений в селф-хостед модельках (особенно после файнтюна), но давайте будем честны — запускать громоздкое говно на своем сервере, да еще и с GPU ради трех вопросов в день — это лютая шляпа, да и шекелей требует столько, что молоко в грудях скиснет. Короче, нормальные люди так не делают. А рассказы про опенсорс и злые корпорации оставим романтикам. Потому что хотелось бы получить ответ от нейронки на вопрос заданный с телефона прямо сейчас и прямо здесь, а не после пердолинга с докером и вечно ломающим обратную совместимость pytorch'ем после каждого обновления
Telegram
эйай ньюз
Из всего что релизнул гугл с Gemini 2.0, самое впечатляющее - демка их streaming API. Gemini теперь в риалтайме понимает одновременно и аудио и видео - как с камеры, так и стрим экрана. К тому же может отвечать голосом (пусть и с помощью TTS). А ещё может…
Увидел где-то в ленте, что чатжпт не умеет в стрелочные часы. Пошел проверить. Сделал 4 теста.
И правда не умеет, какое бы время не было на часах, ChatGPT почти всегда говорит, что они показывают 10:10.
Тем временем gemini 2.0 справляется с этой задачей (нижний скрин)
И правда не умеет, какое бы время не было на часах, ChatGPT почти всегда говорит, что они показывают 10:10.
Тем временем gemini 2.0 справляется с этой задачей (нижний скрин)
This media is not supported in your browser
VIEW IN TELEGRAM
Наконец-то в VR завезли симулятор Австралии
Сберовцы на AI Journey анонсировали сразу три опенсорс-обновы. Еще не тестил полноценно, но звучит вкусно.
Значит, так. Во-первых, большое обновление получило семейство open-source моделей распознавания речи и эмоций. В GigaAMv2 добавили новый подход к предобучению и возможность дообучаться, т.е. ошибок стало меньше, а обработка запросов значительно ускорилась.
Во-вторых, в открытый доступ выложили базированную GigaChat Lite — идеальную для типовых задач на скорость.
Ну, а в-третьих, встречаем в открытом доступе GigaEmbeddings — модель эмбеддингов для RAG (Retrieval Augmented Generation), классификации и т.д. и т.п. Качество сильно скакнуло, предшественникам типа E5 догнать шансов мало (на RAG-бенчах дает до 15% абсолютного качества).
Вот и занятие на выходные привалило.
Значит, так. Во-первых, большое обновление получило семейство open-source моделей распознавания речи и эмоций. В GigaAMv2 добавили новый подход к предобучению и возможность дообучаться, т.е. ошибок стало меньше, а обработка запросов значительно ускорилась.
Во-вторых, в открытый доступ выложили базированную GigaChat Lite — идеальную для типовых задач на скорость.
Ну, а в-третьих, встречаем в открытом доступе GigaEmbeddings — модель эмбеддингов для RAG (Retrieval Augmented Generation), классификации и т.д. и т.п. Качество сильно скакнуло, предшественникам типа E5 догнать шансов мало (на RAG-бенчах дает до 15% абсолютного качества).
Вот и занятие на выходные привалило.
This media is not supported in your browser
VIEW IN TELEGRAM
Принёс вам видео из загнивающего твиттора. Просто посмотрите какая годнота! Чувак использует новый Gemini как персонального наставника по программированию расшарив нейронке свой экран. Все это голосом и с минимальной задержкой.
Будущее уже тут.
Попробовать так же можно тут (нужен гуглоаккаунт и айпишник США)
Будущее уже тут.
Попробовать так же можно тут (нужен гуглоаккаунт и айпишник США)
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за подкасты.
Не очень понятно зачем теперь нужны кожаные блогеры, влогеры, инфлюматьихенсеры.
Я тут смотрел, как народ упарывается в NotebokLM, создавая аудио-подкаст из текста, потом вырезает в аудасити звук для каждого голоса, потом огородит с хейгеном и звуком, и тд.
Все.
Одна кнопка.
Сделать красиво.
Тупо, но красиво.
А зачем еще это все?
Хейген, похоже, сами не понимают, как они троллят интернет.
@cgevent
Не очень понятно зачем теперь нужны кожаные блогеры, влогеры, инфлюматьихенсеры.
Я тут смотрел, как народ упарывается в NotebokLM, создавая аудио-подкаст из текста, потом вырезает в аудасити звук для каждого голоса, потом огородит с хейгеном и звуком, и тд.
Все.
Одна кнопка.
Сделать красиво.
Тупо, но красиво.
А зачем еще это все?
Хейген, похоже, сами не понимают, как они троллят интернет.
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Это выглядит одновременно очень мило и абсолютно проклято.
Вот бы кто-нибудь устроил матч между такими роботами. Это же действительно куда интереснее, чем мясной футбол.
P.S.: робот в синей футболке симулирует травму
Вот бы кто-нибудь устроил матч между такими роботами. Это же действительно куда интереснее, чем мясной футбол.
P.S.: робот в синей футболке симулирует травму
Тем временем гугл продолжает раздупляться и выкатывать новые годные ИИ-штуки.
Сегодня Анонсировали Veo 2 — видео генератор аналог Sora, Kling и иже с ними.
Что умеет:
▪️Создавать видосы с разрешением до 4k
▪️Понимает элементы управления камерой в подсказках, такие как общий план, съемка от первого лица, съемка с дрона
▪️Хорошо воссоздает реальную физику и реалистичное выражение лица человека.
Но это все пока только в обещаниях, а видосы выше могут быть результатом ста часов черри-пикинга. Поэтому, ждём выхода, а потом только будем делать выводы.
Записаться в вайтлист и почитать подробнее можно тут.
Сегодня Анонсировали Veo 2 — видео генератор аналог Sora, Kling и иже с ними.
Что умеет:
▪️Создавать видосы с разрешением до 4k
▪️Понимает элементы управления камерой в подсказках, такие как общий план, съемка от первого лица, съемка с дрона
▪️Хорошо воссоздает реальную физику и реалистичное выражение лица человека.
Но это все пока только в обещаниях, а видосы выше могут быть результатом ста часов черри-пикинга. Поэтому, ждём выхода, а потом только будем делать выводы.
Записаться в вайтлист и почитать подробнее можно тут.
Media is too big
VIEW IN TELEGRAM
Гляньте какая годнота ❤️
Автор пишет, что сделал это с помощью Flux 1.1 pro + различных видео генераторов (sora, kling, minimax)
Автор пишет, что сделал это с помощью Flux 1.1 pro + различных видео генераторов (sora, kling, minimax)