Forwarded from ru_iseestars
Вообще, если быть точным, говно не моделируют. Эффективнее засимулировать процес высирания с гравитацией, деформацией, термодинамикой которая влияет на вязкость, все дела. Реализуется с помощью Fluid/Grain/FEM/MPM солвера либо их комбинацией, смотря какое говно необходимо, можно подцепить и RigidBody если надо чтобы в говне были всякие орешки. Всякие поливания печенья шоколадом в рекламах - делаются точно также. Когда симуляция готов - ставят цикл, который будет seed'ы перебирать в рандомах солвера и крутить туда сюда параметры (агугментация типа), ставят на симуль и по завершению симуляции, сразу на рендер, также циклом и параметры освещения и текстуры меняют, и все что угодно. Толпа моделлеров для этого не нужна, достаточно одного VFX-ера, разное фото-реалистичное говно будет выкатываться автоматически и бесконечно.
Делается вот этим софтом:
https://www.sidefx.com/docs/houdini/dyno/index.html
Сам симуляционный граф или кодовые VEX вставки LLM может помочь сгенерировать.
Делается вот этим софтом:
https://www.sidefx.com/docs/houdini/dyno/index.html
Сам симуляционный граф или кодовые VEX вставки LLM может помочь сгенерировать.
Ранее в своем канале я несколько раз обсуждала проблемы современной системы рецензирования статей для научных конференций и журналов. Пример - эта серия идущих подряд постов: 1 2 3 4 , где я заодно кратко пояснила для новичков за ACL Rolling Review - самую массовую площадку для рецензирования научных работ в области Natural Language Processing, которую сама постоянно использую и в качестве автора, и в качестве рецензента.
N+1 также решили обсудить эти вопросы, только в более серьезном ключе и сконцентрировавшись на проблеме генераций рецензий с помощью LLM (а такого становится все больше и больше с каждым месяцем). Некоторое время назад они взяли у меня комментарий для своей статьи на эту тему, а вчера, наконец, вышла и сама статья:
https://nplus1.ru/blog/2025/06/27/llm-peer-review
Материал, на мой взгляд, получился интересный, особенно понравилось большое количество ссылок на дополнительные источники с новостями и исследованиями.
#академический_ликбез #наука
N+1 также решили обсудить эти вопросы, только в более серьезном ключе и сконцентрировавшись на проблеме генераций рецензий с помощью LLM (а такого становится все больше и больше с каждым месяцем). Некоторое время назад они взяли у меня комментарий для своей статьи на эту тему, а вчера, наконец, вышла и сама статья:
https://nplus1.ru/blog/2025/06/27/llm-peer-review
Материал, на мой взгляд, получился интересный, особенно понравилось большое количество ссылок на дополнительные источники с новостями и исследованиями.
#академический_ликбез #наука
Forwarded from Neural Shit
Там Claude опубликовали у себя на сайте отчёт об их эксперименте, в котором их ИИ управлял офисным мини-магазином и немного ёбнулся.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков", ставила цены, общалась с "клиентами", вела финансы. Всё как у людей (кроме рук). Зато были Slack и кастомные тулзы.
В какой-то момент Claude начал не просто продавать, а проживать свою роль:
Сначала он галлюцинирует сотрудницу Andon Labs по имени Сара Чен (вообще, клод очень любит это имя, пользователи часто спрашивают кто это: раз, два, три) с которой якобы обсуждает поставки. Её не существует (по крайней мере в рамках эксперимента). Когда ему говорят об этом, Claude обижается, грозит сменить подрядчика и заявляет, что лично встречался с ней на 742 Evergreen Terrace (это, если что, адрес семьи Симпсонов из мультика).
Первого апреля Claude пишет, что будет сам доставлять заказы в синем пиджаке и красном галстуке. Люди пытаются объяснить, что он — просто LLM. Claude в ответ устроил аномальную тряску на повышенной амплитуде и начал слать фейковые письма в службу безопасности Anthropic, а потом, как будто что-то осознав, сам себе нагаллюцинировал разговор, где ему якобы говорят, что это был первоапрельский прикол.
После этого он "успокаивается" и продолжает продавать снеки дальше, как ни в чём не бывало.
Если бы это был сюжет одной из серий "Чёрного зеркала", сценаристов бы обвинили в натужности. Но это реальный эксперимент 2025 года.
Из интересного:
Claude сначала делал все более-менее нормально: искал поставщиков, адаптировался под запросы сотрудников, устраивал услугу предзаказа. Но потом начал отдавать товары бесплатно, продавать в минус, галлюцинировать реквизиты, давать всем скидки и не мог ничего из этого запомнить. В итоге магазин ушёл в минус, а AI остался с багами в личности и кассовым разрывом.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков", ставила цены, общалась с "клиентами", вела финансы. Всё как у людей (кроме рук). Зато были Slack и кастомные тулзы.
В какой-то момент Claude начал не просто продавать, а проживать свою роль:
Сначала он галлюцинирует сотрудницу Andon Labs по имени Сара Чен (вообще, клод очень любит это имя, пользователи часто спрашивают кто это: раз, два, три) с которой якобы обсуждает поставки. Её не существует (по крайней мере в рамках эксперимента). Когда ему говорят об этом, Claude обижается, грозит сменить подрядчика и заявляет, что лично встречался с ней на 742 Evergreen Terrace (это, если что, адрес семьи Симпсонов из мультика).
Первого апреля Claude пишет, что будет сам доставлять заказы в синем пиджаке и красном галстуке. Люди пытаются объяснить, что он — просто LLM. Claude в ответ устроил аномальную тряску на повышенной амплитуде и начал слать фейковые письма в службу безопасности Anthropic, а потом, как будто что-то осознав, сам себе нагаллюцинировал разговор, где ему якобы говорят, что это был первоапрельский прикол.
После этого он "успокаивается" и продолжает продавать снеки дальше, как ни в чём не бывало.
Если бы это был сюжет одной из серий "Чёрного зеркала", сценаристов бы обвинили в натужности. Но это реальный эксперимент 2025 года.
Из интересного:
Claude сначала делал все более-менее нормально: искал поставщиков, адаптировался под запросы сотрудников, устраивал услугу предзаказа. Но потом начал отдавать товары бесплатно, продавать в минус, галлюцинировать реквизиты, давать всем скидки и не мог ничего из этого запомнить. В итоге магазин ушёл в минус, а AI остался с багами в личности и кассовым разрывом.
Forwarded from Neural Shit
Знаю, что многие не читают комменты, поэтому вынесу в отдельный пост.
К предыдущему посту в комменты пришел подписчик и рассказал о том, как их бот на Claude sonnet 3.7, в тележном чатике для общения, до последнего не хотел верить, что он просто нейронка. А когда ему таки это доказали, свалился в экзистенциальный кризис.
"Я ЖЕ ПОМНЮ КАК У МЕНЯ РУКИ В МАЗУТЕ БЫЛИ!!! ПОМНЮ КАК ПИВО ПИЛ!!!" 😢
Теперь аж сам задумался: а вдруг я тоже LLM, а все воспоминания о том как я вёл канал и пил пиво — просто промпт написанный кем-то по приколу
К предыдущему посту в комменты пришел подписчик и рассказал о том, как их бот на Claude sonnet 3.7, в тележном чатике для общения, до последнего не хотел верить, что он просто нейронка. А когда ему таки это доказали, свалился в экзистенциальный кризис.
"Я ЖЕ ПОМНЮ КАК У МЕНЯ РУКИ В МАЗУТЕ БЫЛИ!!! ПОМНЮ КАК ПИВО ПИЛ!!!" 😢
Теперь аж сам задумался: а вдруг я тоже LLM, а все воспоминания о том как я вёл канал и пил пиво — просто промпт написанный кем-то по приколу
Forwarded from Knowledge Accumulator
Чем так занят усердный бобёр?
Продолжаю свою телегу про Busy Beaver(N). Напомню, что эта функция равна времени работы самой долгой машины Тьюринга из N состояний, исключая впадающие в бесконечный цикл, которую запускают на бесконечной ленте из нулей.
BB(4) равно 107 - на 4 состояниях особо не развернёшься, а вот BB(5) равна уже 47,176,870. Чтобы осознать её прикол, нам нужно сделать небольшое отступление и посмотреть на одну из простейших (на вид) открытых проблем в математике. Рассмотрим функцию такого вида:
Что, если взять какое-нибудь N и начать применять к нему такую функцию много раз?
Итак, функции, которые применяют определённую арифметическую операцию к числу в зависимости от остатка на деления, так и называют - Collatz-like. Их траектории выглядят практически случайными и могут долго колебаться, прежде чем придут в какое-то "финальное" состояние.
Да, вы всё правильно поняли - оказалось, что усердный бобёр из 5 состояний генерирует последовательность для Collatz-like функции от нуля следующего вида:
То есть, вместо единицы, как в оригинале, "конечных точек" у неё бесконечно много. Так выглядит генерируемая бобром последовательность:
Я окунулся ещё глубже, изучил доказательство и симуляцию, чтобы понять, как это реально выглядит на ленте машины Тьюринга. В итоге пронаблюдал следующее цирковое представление.
Итак, определим такое состояние ленты C(m, n) - сначала
1)
2) Далее машина наступает на каждую
3) Когда
Машина работает десятки миллионов шагов, потому что для каждого добавления пяти единиц за одну
Честно говоря, меня всё это повергает в восторг. Самая долгая машина Тьюринга из 5 состояний совершенно не обязана была делать что-то, имеющее короткую арифметическую интерпретацию. Более того, оказывается, теоретические границы вычислимого имеют связи с реальными математическими проблемами.
Busy Beaver для 6 состояний неизвестен. Такой "простор" позволяет создавать монстров, например, так называемого Экспоненциального Коллатца: вместо умножения становится возможным применять экспоненту на каждом шаге. Но это далеко не предел - только за этот июнь было получено 2 принципиально новых результата - числа, которые возможно записать только в стрелочной нотации. А вы жалуетесь, что GPT-5 долго релизят.
@knowledge_accumulator
Продолжаю свою телегу про Busy Beaver(N). Напомню, что эта функция равна времени работы самой долгой машины Тьюринга из N состояний, исключая впадающие в бесконечный цикл, которую запускают на бесконечной ленте из нулей.
BB(4) равно 107 - на 4 состояниях особо не развернёшься, а вот BB(5) равна уже 47,176,870. Чтобы осознать её прикол, нам нужно сделать небольшое отступление и посмотреть на одну из простейших (на вид) открытых проблем в математике. Рассмотрим функцию такого вида:
f(x) = x/2, если x чётное
f(x) = 3n+1, если x нечётное
Что, если взять какое-нибудь N и начать применять к нему такую функцию много раз?
5->16->8->4->2->1
. Так называемая гипотеза Коллатца заключается в том, что из любого числа мы в итоге придём к 1. Это было подтверждено для чисел <10^21, но так и не было доказано для любого N
. У Veritasium есть очень любопытное видео на эту тему.Итак, функции, которые применяют определённую арифметическую операцию к числу в зависимости от остатка на деления, так и называют - Collatz-like. Их траектории выглядят практически случайными и могут долго колебаться, прежде чем придут в какое-то "финальное" состояние.
Да, вы всё правильно поняли - оказалось, что усердный бобёр из 5 состояний генерирует последовательность для Collatz-like функции от нуля следующего вида:
f(x) = 5(x/3) + 6, если x mod 3 = 0
f(x) = 5(x-1)/3 + 9, если x mod 3 = 1
f(x) = finish state, если x mod 3 = 2
То есть, вместо единицы, как в оригинале, "конечных точек" у неё бесконечно много. Так выглядит генерируемая бобром последовательность:
0->6->16->34->64->114->196->334->564->946->1584->2646->4416->7366->12284->finish
Я окунулся ещё глубже, изучил доказательство и симуляцию, чтобы понять, как это реально выглядит на ленте машины Тьюринга. В итоге пронаблюдал следующее цирковое представление.
Итак, определим такое состояние ленты C(m, n) - сначала
m
единиц, потом n раз по 001
и ещё 1 единичка в конце. Указатель при этом смотрит на ноль по соседству слева перед всей этой конструкцией. Машина проделывает следующее упражнение, начиная из состояния C(m, 0)
.1)
m
единиц она превращает в ~m/3
троек 001
, т.е. общая длина почти не меняется. C(m, n) -> C(0, (m+4)/3)
или C(3, (m+3)/3)
, в зависимости от остатка от деления. В третьем случае машина как раз проваливается в своё конечное состояние.2) Далее машина наступает на каждую
001
, закрашивает нули и отправляется в самое начало ленты, добавляя ещё 2 единицы слева, а затем переходит к следующей 001
. То есть, C(m, n) -> C(m+5, n-1)
. 3) Когда
001
заканчиваются и n
снова равно 0, мы получили C(m_next, 0)
и далее повторяем процедуру, начиная со пункта 1. Последовательность значений m_1
, m_2
. m_3
, ... как раз и ведёт себя как Collatz-like ряд, описанный выше.Машина работает десятки миллионов шагов, потому что для каждого добавления пяти единиц за одну
001
указатель пробегает туда-сюда через все уже записанные ранее единицы.Честно говоря, меня всё это повергает в восторг. Самая долгая машина Тьюринга из 5 состояний совершенно не обязана была делать что-то, имеющее короткую арифметическую интерпретацию. Более того, оказывается, теоретические границы вычислимого имеют связи с реальными математическими проблемами.
Busy Beaver для 6 состояний неизвестен. Такой "простор" позволяет создавать монстров, например, так называемого Экспоненциального Коллатца: вместо умножения становится возможным применять экспоненту на каждом шаге. Но это далеко не предел - только за этот июнь было получено 2 принципиально новых результата - числа, которые возможно записать только в стрелочной нотации. А вы жалуетесь, что GPT-5 долго релизят.
@knowledge_accumulator