Forwarded from А!
Нейросети убивают искусство? Давайте разберемся 👀
Обсудили с ребятами искуственный интеллект, нейросети и творчество в этих сферах. А что вы думаете об этом виде искусства? Останется ли оно с нами надолго?
artists:
Денис Россиев
Лада
ЭйАйЛера
Лев Переулков
#A
Обсудили с ребятами искуственный интеллект, нейросети и творчество в этих сферах. А что вы думаете об этом виде искусства? Останется ли оно с нами надолго?
artists:
Денис Россиев
Лада
ЭйАйЛера
Лев Переулков
#A
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ЭйАйЛера едет в Екатеринбург 🫀🦾
Последний месяц занимаюсь организацией образовательной программы на фестивале Timecode в Екатеринбурге, который пройдет 26 и 27 октября. Задача была не самой простой — собрать лекторов по ИИ не только связанных с культурой, но с журналистикой. Так как я сама закончила журфак МГУ, мне было важно, чтобы молодые журналисты пользовались актуальными инструментами и получали новые знания. За неделю расскажу о том, с какими нюансами столкнулась при подготовке и кого удалось отвезти на Урал 🫀
Сама я проведу небольшой хакатон для школьников и студентов и буду участвовать в дискуссии. Подумаем о профессиях будущего и о том, как не остаться без работы в мире развивающихся технологий.
Если вы в городе, регистрируйтесь и приходите на лекции избранных 🫀
https://timecodefest.ru/
Последний месяц занимаюсь организацией образовательной программы на фестивале Timecode в Екатеринбурге, который пройдет 26 и 27 октября. Задача была не самой простой — собрать лекторов по ИИ не только связанных с культурой, но с журналистикой. Так как я сама закончила журфак МГУ, мне было важно, чтобы молодые журналисты пользовались актуальными инструментами и получали новые знания. За неделю расскажу о том, с какими нюансами столкнулась при подготовке и кого удалось отвезти на Урал 🫀
Сама я проведу небольшой хакатон для школьников и студентов и буду участвовать в дискуссии. Подумаем о профессиях будущего и о том, как не остаться без работы в мире развивающихся технологий.
Если вы в городе, регистрируйтесь и приходите на лекции избранных 🫀
https://timecodefest.ru/
This media is not supported in your browser
VIEW IN TELEGRAM
О вишенках и реальности
Год радует на громкими словами, а не релизами. Очередной симпатичный релиз от моих любимых Runway ждет нас уже скоро — доступы обещали начать раздавать уже со вчерашнего дня. В этот раз нам обещают шикарный перенос мимики (лицевой мокап), лучше завирусившейся недавно Hedra.
Видео из нового продукта Act-On Runway правда сначала потрясают. Но тестируя как работают другие релизы типа обновления Gen c переносом стиля на кадр, понимаешь, что это годится только пока для мемов и творческого поиска. И на том спасибо.
Применяя это на практике понимаешь, что инструменты из коробочки работают примерно на 20%, в кейсе часто приходится это учитывать, подстраиваясь не под идею, а возможности софта. Например у Hedra, если у героя не очевидные черты лица (а это бывает часто), то инструмент просто выдаст ошибку, перенести точки как-то вручную и помочь ему сориентироваться — никак. Кредиты только так улетают, вне зависимости от качества картинки-движения-реалистичности.
Итого для хорошей работы нужно иметь в арсенале несколько подписок, механику которых ты знаешь можешь приблизительно предсказать результат. Часто возникает ситуация, когда одна механика вырусится, автор или группа авторов начинает работать именно с определенным пайплайном, забивая на содержание и вместо экспериментов и все новых и новых открытий мы получаем нейронный шум. Создатели (или их заказчики) потом еще удивляются, а почему их кейс с пайплайном 2022 года не оценили.
Некоторые коллеги выбирают для своих проектов решения из опенсорса, но в этом случае больше управления несет за собой больше экспериментов, итераций и поломок, что конвертируется во время. Зато результат часто не такой как у всех.
Настоящее и будущее больших открытий и хороших денег как всегда за междисциплинарными кейсами, где используется много нейронок, много не-нейронок, а самое главное человеческий талант. Волшебной видео-кнопки пока нет.
Извините, а SORA выйдет? А мячик можно?
Год радует на громкими словами, а не релизами. Очередной симпатичный релиз от моих любимых Runway ждет нас уже скоро — доступы обещали начать раздавать уже со вчерашнего дня. В этот раз нам обещают шикарный перенос мимики (лицевой мокап), лучше завирусившейся недавно Hedra.
Видео из нового продукта Act-On Runway правда сначала потрясают. Но тестируя как работают другие релизы типа обновления Gen c переносом стиля на кадр, понимаешь, что это годится только пока для мемов и творческого поиска. И на том спасибо.
Применяя это на практике понимаешь, что инструменты из коробочки работают примерно на 20%, в кейсе часто приходится это учитывать, подстраиваясь не под идею, а возможности софта. Например у Hedra, если у героя не очевидные черты лица (а это бывает часто), то инструмент просто выдаст ошибку, перенести точки как-то вручную и помочь ему сориентироваться — никак. Кредиты только так улетают, вне зависимости от качества картинки-движения-реалистичности.
Итого для хорошей работы нужно иметь в арсенале несколько подписок, механику которых ты знаешь можешь приблизительно предсказать результат. Часто возникает ситуация, когда одна механика вырусится, автор или группа авторов начинает работать именно с определенным пайплайном, забивая на содержание и вместо экспериментов и все новых и новых открытий мы получаем нейронный шум. Создатели (или их заказчики) потом еще удивляются, а почему их кейс с пайплайном 2022 года не оценили.
Некоторые коллеги выбирают для своих проектов решения из опенсорса, но в этом случае больше управления несет за собой больше экспериментов, итераций и поломок, что конвертируется во время. Зато результат часто не такой как у всех.
Настоящее и будущее больших открытий и хороших денег как всегда за междисциплинарными кейсами, где используется много нейронок, много не-нейронок, а самое главное человеческий талант. Волшебной видео-кнопки пока нет.
Извините, а SORA выйдет? А мячик можно?
Высокие технологии на конференции в Екатеринбурге
26 и 27 октября в Екатеринбурге состоится конференция Timecode, где я курировала образовательную программу.
Передо мной стояла задача привезти лекторов связанных не только с ИИ, но и с журналистикой и культурой. Очень советую зарегистрироваться на следующие выступления:
Алексей Смагин ответит за датавиз в лекции «От чисел — к открытиям: как журналисты создают впечатляющие проекты на основе данных».
Александр Жиганов расскажет об опыте внутри моей лично любимой команды SHUM:«14-й элемент: ИИ как неотъемлемая часть команды». Ребята уже покорили всех на таких фестах как NUR, Outline, Signal.
Мариам Ароян «Искусственный интеллект в журналистике: авторское право, прозрачность и этика» — крайне полезная лекция, просила лектора как для себя.
Варвара Любова выступит с лекцией «Искусственный интеллект, который мы заслужили», постараемся не только начать требовать от ИИ результатов, но и узнать, что можно узнать через него о нас самих.
Иван Дианов выступит с уникальным аудиовизуальным перформансом Live coding.
А хэдлайнером фестиваля станет ведущая подкаста «Искусство для пацанчиков» Анастасия Четвертикова, которая выступит с лекцией «Про ЦифрИск» в Ельцин Центре.
Сама я на этой конференции участвую в дискуссии и делаю хакатон для школьников.
Регистрируйтесь и до встречи в Екатеринбурге! Я буду очень рада увидеться с местным сообществом и подписчиками.
https://timecodefest2024.ru/
26 и 27 октября в Екатеринбурге состоится конференция Timecode, где я курировала образовательную программу.
Передо мной стояла задача привезти лекторов связанных не только с ИИ, но и с журналистикой и культурой. Очень советую зарегистрироваться на следующие выступления:
Алексей Смагин ответит за датавиз в лекции «От чисел — к открытиям: как журналисты создают впечатляющие проекты на основе данных».
Александр Жиганов расскажет об опыте внутри моей лично любимой команды SHUM:«14-й элемент: ИИ как неотъемлемая часть команды». Ребята уже покорили всех на таких фестах как NUR, Outline, Signal.
Мариам Ароян «Искусственный интеллект в журналистике: авторское право, прозрачность и этика» — крайне полезная лекция, просила лектора как для себя.
Варвара Любова выступит с лекцией «Искусственный интеллект, который мы заслужили», постараемся не только начать требовать от ИИ результатов, но и узнать, что можно узнать через него о нас самих.
Иван Дианов выступит с уникальным аудиовизуальным перформансом Live coding.
А хэдлайнером фестиваля станет ведущая подкаста «Искусство для пацанчиков» Анастасия Четвертикова, которая выступит с лекцией «Про ЦифрИск» в Ельцин Центре.
Сама я на этой конференции участвую в дискуссии и делаю хакатон для школьников.
Регистрируйтесь и до встречи в Екатеринбурге! Я буду очень рада увидеться с местным сообществом и подписчиками.
https://timecodefest2024.ru/
Media is too big
VIEW IN TELEGRAM
Когда хотели быть самыми серьезными скептиками, но просчитались
Бомбанула с этого видео, дескать «всем все равно, что вы сгенерировали, просто покажите, что это работает и приносит конверсии». Видео было еще на прошлой неделе, но первый пост был слишком эмоциональным и я долго думала, писать ли его.
Есть некое желание авторов усидеть на двух стульях: с одной довольно здравая позиция, что ИИ — просто инструмент, но с другой поливание помоями тех, кто указывает, что работа сделана с помощью ИИ (а во многих случаях это более чем уместно).
Итак, как же критически мало нужно знать о том, как развивается ИИ, чтобы делать такие ролики. Когда большинство смелых решений идут от энтузиастов, опенсорса и небольших стартапов. То есть множество этих «вы посмотрите как я могу» превращается в новые продукты и идеи, большие корпорации берут на вооружение и внедряют в продукты. До того такие ребята как с ролика получат скучные готовые инструменты одной кнопки — энтузиасты уже давно устанут от него и покажут результат, потому что ими движет живой интерес к нейросетям, прогрессу и творчеству. Это искренне, а самое главное важнее для бизнеса, ведь уникальные результаты (до того как все вокруг уже поймут, что это работает) приносят именно такие люди.
Даже огромное количество генераций с котятами под музыку или феномен Иисуса с креветками — все это идет на пользу развитию нейросетей. Люди видят нейросетевой контент чаще, привыкают к нему, охотнее используют инструменты сами, не боясь, что они уничтожат их жизнь.
Какие конверсии, клоуны.
Бомбанула с этого видео, дескать «всем все равно, что вы сгенерировали, просто покажите, что это работает и приносит конверсии». Видео было еще на прошлой неделе, но первый пост был слишком эмоциональным и я долго думала, писать ли его.
Есть некое желание авторов усидеть на двух стульях: с одной довольно здравая позиция, что ИИ — просто инструмент, но с другой поливание помоями тех, кто указывает, что работа сделана с помощью ИИ (а во многих случаях это более чем уместно).
Итак, как же критически мало нужно знать о том, как развивается ИИ, чтобы делать такие ролики. Когда большинство смелых решений идут от энтузиастов, опенсорса и небольших стартапов. То есть множество этих «вы посмотрите как я могу» превращается в новые продукты и идеи, большие корпорации берут на вооружение и внедряют в продукты. До того такие ребята как с ролика получат скучные готовые инструменты одной кнопки — энтузиасты уже давно устанут от него и покажут результат, потому что ими движет живой интерес к нейросетям, прогрессу и творчеству. Это искренне, а самое главное важнее для бизнеса, ведь уникальные результаты (до того как все вокруг уже поймут, что это работает) приносят именно такие люди.
Даже огромное количество генераций с котятами под музыку или феномен Иисуса с креветками — все это идет на пользу развитию нейросетей. Люди видят нейросетевой контент чаще, привыкают к нему, охотнее используют инструменты сами, не боясь, что они уничтожат их жизнь.
Какие конверсии, клоуны.
У Runway потрясающее новое обновление — улучшенное управление камерой
Можно будет выбрать направление движения, скорость, сочетать это все в ролике. Есть даже панорамирование объекта, то есть обучали не только на видео. Подробнее и с черрипиками тут.
Готовлюсь тестировать на все деньги, вместе с новым обновлением в Midjourney (позволяющим работать со своими изображениями) — это новое слово в творчестве и рекламе. После сотни итераций, конечно.
Можно будет выбрать направление движения, скорость, сочетать это все в ролике. Есть даже панорамирование объекта, то есть обучали не только на видео. Подробнее и с черрипиками тут.
Готовлюсь тестировать на все деньги, вместе с новым обновлением в Midjourney (позволяющим работать со своими изображениями) — это новое слово в творчестве и рекламе. После сотни итераций, конечно.
ИИ снова на крупнейших аукционах искусства
Впервые на торги аукционного дома Sotheby’s выставлена картина, написанная человекоподобным роботом Ai-Da.
Картина называется «Бог ИИ. Портрет Алана Тьюринга» и была создана в рамках глобального саммита ООН «ИИ во благо» в мае 2024.
Не смогла пройти мимо этой новости, хотя самого робота начали создавать еще в 2019 году, картина написана в начале года (и это не первая работа робота), а на торги выставлена неделю назад. Возможно из-за визуала самой работы, а может из-за облика робота-художницы, которую назвали Ai-Da в честь первой программистки Ады Лавлейс. У нее камеры вместо глаз с системой распознавания лиц и искусственным интеллектом, голосовой интерфейс, две руки, которыми она пишет картины. У Ai-Da нет ног, видимо, чтобы не убежала от мольберта и дальше рисовала шедевры.
Напомню, что первой работой, сделанной с помощью нейросетей и проданной с молотка на Christie's была работа «Портрет Эдмонда Белами» группы Obvious.
До 7 ноября лот можно купить, так что разбивайте свинок-копилок. Я не знаю, чего бы мне больше хотелось — купить такую работу в коллекцию или чтобы робот-художница написала мой портрет.
Впервые на торги аукционного дома Sotheby’s выставлена картина, написанная человекоподобным роботом Ai-Da.
Картина называется «Бог ИИ. Портрет Алана Тьюринга» и была создана в рамках глобального саммита ООН «ИИ во благо» в мае 2024.
Не смогла пройти мимо этой новости, хотя самого робота начали создавать еще в 2019 году, картина написана в начале года (и это не первая работа робота), а на торги выставлена неделю назад. Возможно из-за визуала самой работы, а может из-за облика робота-художницы, которую назвали Ai-Da в честь первой программистки Ады Лавлейс. У нее камеры вместо глаз с системой распознавания лиц и искусственным интеллектом, голосовой интерфейс, две руки, которыми она пишет картины. У Ai-Da нет ног, видимо, чтобы не убежала от мольберта и дальше рисовала шедевры.
Напомню, что первой работой, сделанной с помощью нейросетей и проданной с молотка на Christie's была работа «Портрет Эдмонда Белами» группы Obvious.
До 7 ноября лот можно купить, так что разбивайте свинок-копилок. Я не знаю, чего бы мне больше хотелось — купить такую работу в коллекцию или чтобы робот-художница написала мой портрет.
Forwarded from Kami Usu
Хорошие новости!
Спектакль «К чему меня жизнь не готовила. Пункт 64. Паркинсон» в Москве и в Санкт-Петербурге!✨
6 и 7 ноября, Музей Москвы, Москва📍
12 ноября, Новая Сцена Александринского Театра, Санкт-Петербург📍
Показы спектакля сопровождает выставка «Наука. Искусство. Мозг» - синтез научно-исследовательских разработок и современного искусства, где можно будет увидеть AR работы художника Евгения Лукуты и генеративный арт нейро-художницы Валерии Титовой. Курирую выставку вместе с Викторией Самохиной!✨
—————————————
Спектакль, который захватывает воображение и погружает в глубины человеческой силы и эмоций. Спектакль «К чему меня жизнь не готовила. Пункт 64. Паркинсон» — это смелое искусство, в котором исследуется тема болезни Паркинсона через современный танец.
Движения сливаются с музыкой, светом и видео проекцией, создавая на сцене образ героя и рассказывая историю о борьбе, выносливости и силе воли. Постановка, которая привлекает внимание к болезни Паркинсона и предлагает задуматься о стойкости, поддержке и возможностях преодоления жизненных трудностей.
Спектакль «К чему меня жизнь не готовила. Пункт 64. Паркинсон» — это экспрессия, искусство и невероятная жажда жизни во всех ее проявлениях.
Команда спектакля:
Режиссёр, хореограф, исполнитель: Александр Челидзе
Продюсер проекта: Виталий-Марк Гладышев
Драматург: Константин Федоров
Медиа-художница: Камила Юсупова (Kami Usu)
Композитор: Егор Савельянов
Художник по свету: Игорь Фомин
Сайт: https://parkinson64.art/
Выставка: https://parkinson64.art/exhibition
Музей Москвы:https://mosmuseum.ru/performances/p/parkinson/
Новая Сцена: https://alexandrinsky.ru/afisha-i-bilety/k-chemu-menya-zhizn-ne-gotovila-punkt-64-parkinson/
Спектакль «К чему меня жизнь не готовила. Пункт 64. Паркинсон» в Москве и в Санкт-Петербурге!✨
6 и 7 ноября, Музей Москвы, Москва📍
12 ноября, Новая Сцена Александринского Театра, Санкт-Петербург📍
Показы спектакля сопровождает выставка «Наука. Искусство. Мозг» - синтез научно-исследовательских разработок и современного искусства, где можно будет увидеть AR работы художника Евгения Лукуты и генеративный арт нейро-художницы Валерии Титовой. Курирую выставку вместе с Викторией Самохиной!✨
—————————————
Спектакль, который захватывает воображение и погружает в глубины человеческой силы и эмоций. Спектакль «К чему меня жизнь не готовила. Пункт 64. Паркинсон» — это смелое искусство, в котором исследуется тема болезни Паркинсона через современный танец.
Движения сливаются с музыкой, светом и видео проекцией, создавая на сцене образ героя и рассказывая историю о борьбе, выносливости и силе воли. Постановка, которая привлекает внимание к болезни Паркинсона и предлагает задуматься о стойкости, поддержке и возможностях преодоления жизненных трудностей.
Спектакль «К чему меня жизнь не готовила. Пункт 64. Паркинсон» — это экспрессия, искусство и невероятная жажда жизни во всех ее проявлениях.
Команда спектакля:
Режиссёр, хореограф, исполнитель: Александр Челидзе
Продюсер проекта: Виталий-Марк Гладышев
Драматург: Константин Федоров
Медиа-художница: Камила Юсупова (Kami Usu)
Композитор: Егор Савельянов
Художник по свету: Игорь Фомин
Сайт: https://parkinson64.art/
Выставка: https://parkinson64.art/exhibition
Музей Москвы:https://mosmuseum.ru/performances/p/parkinson/
Новая Сцена: https://alexandrinsky.ru/afisha-i-bilety/k-chemu-menya-zhizn-ne-gotovila-punkt-64-parkinson/
mosmuseum.ru
К чему меня жизнь не готовила. Пункт 64. Паркинсон / Музей Москвы
Пластический спектакль, который захватывает воображение и погружает в глубины человеческой силы и эмоций
Заморочились по Gaussian Splatting, Runway и созданию своих миров
В новой версии Runway появилось управление камерой и то самое панорамирование, которое дает нам возможность хоть и криво, но облететь объект вокруг. Я не знаю, как у вас, но у меня это вызвало бешеное желание поскорее засунуть генерацию пролета в Luma 3D и создать сплат, где можно летать камерой вокруг объекта не только так, как на исходнике.
Разумеется, главный прикол был в том, что реалистичные генерации мы можем заснять непосредственно в нашем мире, мне хотелось сделать что-то иное, чтобы протестировать это на сказочных мирах, посмотреть качество и артефакты.
О реалистичных генерациях и попытках сделать результат из черрипиков Runway можно прочитать у Psy Eyes.
Изначально я хотела протестировать Luma 3D на предмет того, может ли она сделать зачаток Вселенной из моего видео, но все мои попытки кончались долгими загрузками (сервис даже не выдавал ошибку). Так что карманные миры пока откладываются.
Артем Коневских @radio_hypothalamus помог мне покорить сплаты. Сначала он использовал RealityCapture, чтобы из видео реконструировать point cloud и рассчитать положения камеры, а затем на этих данных в Postshot натренировал сплаты. К слову, сплаты можно делать и сразу в Postshot, но так получается быстрее
Посмотрите как круто вышло. До полного управления персонализированными Вселенными осталось совсем чуть-чуть!
В новой версии Runway появилось управление камерой и то самое панорамирование, которое дает нам возможность хоть и криво, но облететь объект вокруг. Я не знаю, как у вас, но у меня это вызвало бешеное желание поскорее засунуть генерацию пролета в Luma 3D и создать сплат, где можно летать камерой вокруг объекта не только так, как на исходнике.
Разумеется, главный прикол был в том, что реалистичные генерации мы можем заснять непосредственно в нашем мире, мне хотелось сделать что-то иное, чтобы протестировать это на сказочных мирах, посмотреть качество и артефакты.
О реалистичных генерациях и попытках сделать результат из черрипиков Runway можно прочитать у Psy Eyes.
Изначально я хотела протестировать Luma 3D на предмет того, может ли она сделать зачаток Вселенной из моего видео, но все мои попытки кончались долгими загрузками (сервис даже не выдавал ошибку). Так что карманные миры пока откладываются.
Артем Коневских @radio_hypothalamus помог мне покорить сплаты. Сначала он использовал RealityCapture, чтобы из видео реконструировать point cloud и рассчитать положения камеры, а затем на этих данных в Postshot натренировал сплаты. К слову, сплаты можно делать и сразу в Postshot, но так получается быстрее
Посмотрите как круто вышло. До полного управления персонализированными Вселенными осталось совсем чуть-чуть!
Завтра в 14:30 я выступаю на Yet another Conference on Education от Яндекса, буду одним из спикеров самой важной для меня сейчас дискуссии «Творческие люди XXI века: на стыке искусства и технологии». Конференцию можно будет посмотреть онлайн и в записи.
В очень приятной компании собираюсь рассказать о своем опыте образования в нейросетях, разделении на физиков и лириков, почему важно самому придумывать себе профессию и вылезать из инфопузыря! Дискуссия будет полезна как студентам, так и профессионалам. Присоединяйтесь в эфиру, поддерживайте нас и задавайте вопросы 🫀
Главная тема конференции этого года в целом — будущее образования и влияние технологий на то, как мы учим и учимся. Обсудим, что мы узнали об искусственном интеллекте за этот год в цифрах и фактах. Поговорим о том, какой вклад вносит искусственный интеллект в образование и какие навыки нужно развивать уже сейчас специалистам как технического, так и гуманитарного профиля.
Смотрите эфир завтра на сайте!
В очень приятной компании собираюсь рассказать о своем опыте образования в нейросетях, разделении на физиков и лириков, почему важно самому придумывать себе профессию и вылезать из инфопузыря! Дискуссия будет полезна как студентам, так и профессионалам. Присоединяйтесь в эфиру, поддерживайте нас и задавайте вопросы 🫀
Главная тема конференции этого года в целом — будущее образования и влияние технологий на то, как мы учим и учимся. Обсудим, что мы узнали об искусственном интеллекте за этот год в цифрах и фактах. Поговорим о том, какой вклад вносит искусственный интеллект в образование и какие навыки нужно развивать уже сейчас специалистам как технического, так и гуманитарного профиля.
Смотрите эфир завтра на сайте!