Telegram Group Search
Forwarded from Reliable ML
Артем Ерохин - Бутстрапирование временных рядов
3-4 июня - Секция Reliable ML на Data Fest 2023

Во время Data Fest 2023 на нашей секции Reliable ML с докладом про бутстрапирование временных рядов выступит Артем Ерохин, Lead DS в X5 Tech, автор канала @Artificial Stupid.

В докладе будет рассмотрена проблема применения классического бутстрепа для временных рядов. Артем расскажет про различные методы бутстрепа, учитывающие структуру временного ряда, рассмотрит плюсы и минусы разных подходов.

Регистрация на мероприятие тут.
Расписание будет сформировано в конце мая.

Ваш @Reliable ML

#анонс #tech #causal_inference #datafest2023
​​#books

Раз в прошлый раз было достаточно много китов (спасибо вам за обратную связь ;)), то буду разбавлять посты записями про драматургию и кино в целом.

Сегодня в книжной рубрике будет “Грамматика кадра” Кристофера Дж. Боуэна. Конечно, это скорее книга про режиссуру, но все равно она весьма и весьма интересна и полезна. Книгу можно условно разбить на три основные части: первая посвящена основам композиции кадра, вторая - особенностям работы с глубиной сцены и освещением, третья - техникам движения камеры и монтажа.

Мне понравилось, что автор подходит к теме не только с теоретической, но и с практической стороны. В каждой главе есть множество примеров, а также схемы и иллюстрации, которые помогают лучше понять материал. Также в конце каждой главы есть упражнения и вопросы для самопроверки, которые стимулируют экспериментировать с разными приемами.

В книге можно почерпнуть много интересного (особенно, для новичков). Лично я узнал о:
- разных типах ракурсов и их эмоциональном воздействии на зрителя;
- правилах третей и золотом сечении в композиции кадра;
- способах создания перспективы и объема в сцене, разнице между жестким и мягким светом и их использовании для передачи настроения и атмосферы;
- том, как выбирать скорость и направление движения камеры в зависимости от цели съемки;
- принципах непрерывности и ритма в монтаже.

Впрочем, стоит помнить, что книга скорее ближе к учебнику. Так что расслабляющим чтивом ее сложно назвать. Нужно читать сосредоточенно, иначе большинство информации пролетит мимо.
#marketing

Нашел интересный сайт с разными маркетинговыми "фишками", подкрепленными ссылками на исследования. Понятное дело, что такие исследования все равно под вопросом (а воспроизведется ли? а хороша ли методология исследования?), но это уже большой шаг по сравнению с просто высказываниями в стиле "делайте так, потому что все всегда так делают".

Несколько интересных примеров с сайта:
1. Музыка в магазине позитивно влияет на покупки только в будние дни. В будни человек слишком занят домашними и рабочими делами и заботами, потому приятная музыка лучше поднимает настроение и желание что-нибудь купить (Ahlbom, C. P., Roggeveen, A. L., Grewal, D., & Nordfält, J. (2022). Understanding How Music Influences Shopping on Weekdays and Weekends. Journal of Marketing Research)
2. Пользователи по-разному реагируют на вертикальное и горизонтальное расположение товаров на сайте. Все зависит от того, в свободном ли поиске покупатель, или ищет конкретный товар (Deng, X., Kahn, B. E., Unnava, H. R., & Lee, H. (2016). A “wide” variety: Effects of horizontal versus vertical display on assortment processing, perceived variety, and choice. Journal of Marketing Research, 53(5), 682-698)
3. Расположение более дорогой, но похожей альтернативы рядом с продаваемым товаром позволяет улучшить привлекательность вашего товара для покупателя (Ariely, D. (2008). Predictably irrational (pp. 278-9). New York: HarperCollins)

Если показалось интересным, то можете более детально поковыряться. В разделе "Guides" собраны тематические подборки на разные случаи (ценообразование, реклама, брендирование и т.п.). Enjoy ;)
#management

Я записался в менторскую программу сингуляриса в качестве ментора. Уже прошли первые сессии с менти, потому сегодня поговорим про плюсы менторства для data scientist.

Если говорить про менторство в целом, то это процесс передачи знаний, опыта и поддержки от более опытного специалиста к менее опытному. Ментор помогает менти развивать свои навыки, решать проблемы, достигать целей и расти в своем профессионализме.

Замечу, что менторство для data scientist имеет некоторые особенности. Data science - это область, которая постоянно развивается и требует от нас не только знания математики, статистики и программирования, но и умения работать с данными, анализировать их, строить модели и визуализировать результаты. Кроме того, в data science часто приходится работать в команде, что требует навыков эффективного общения и сотрудничества с другими специалистами/отделами.

Быть ментором для data scientist - это не только делиться своими знаниями и опытом, но и учиться самому. Вот несколько плюсов того, чтобы стать ментором:
- Менторство помогает улучшить свои навыки обучения и объяснения. Когда вы объясняете что-то менти, вы должны быть точными, понятными и аргументированными. Это тренирует вашу логику, риторику и критическое мышление.
- Менторство помогает расширить свой кругозор и узнать что-то новое. Каждый менти имеет свой уровень знаний, интересы и цели. Вы можете узнать от него что-то новое или посмотреть на проблему с другой точки зрения. Также вы можете изучать новые технологии или методы, которые использует ваш менти.
- Менторство помогает развивать свою лидерскую карьеру. Когда вы являетесь ментором, вы демонстрируете свою экспертизу, ответственность и готовность помогать другим. Это повышает ваш авторитет и уважение в профессиональном сообществе. Также вы можете получить полезные контакты и рекомендации от своих менти или коллег.
- Менторство приносит удовлетворение и радость. Когда вы видите, как ваш менти прогрессирует, решает задачи, достигает целей и благодарит вас за вашу помощь, вы испытываете чувство гордости и счастья. Вы понимаете, что ваш труд не напрасен и что вы делаете что-то полезное для другого человека.

Если вы хотите стать ментором (или найти ментора), то можете зарегистрироваться в менторской программе. Правда, у меня уже полный набор запросов на менторство. Но среди менторов есть весьма немало хороших и интересных специалистов, которые в данный момент открыты для работы с менти.

P.S. Каждая прошедшая у меня сессия - новая тематика и совершенно уникальный запрос. Это очень интересно и любопытно ;)
На этой неделе поста нет, ибо готовлюсь к выступлению. Поэтому напомню, что 4 июня я выступаю в рамках Data Fest'а с докладом про бутстрапирование временных рядов.

Всех жду на моем выступлении ;)
​​#books

Думаю над референсами для истории по курса сценарного мастерства. Одни из референсов выбрал прекрасную книгу, потому сегодня немного о ней.

Речь про книгу Паскаля Мерсье “Ночной поезд на Лиссабон”. Это роман, который заставляет задуматься о смысле жизни, о выборах, которые мы делаем, о том, что нас объединяет и разделяет.

Главный герой романа - Раймунд Грегориус, преподаватель древних языков в Берне. Он живет спокойной и размеренной жизнью, пока однажды не спасает на мосту таинственную незнакомку, которая оказывается португалкой. Это событие сильно меняет спокойную и тихую жизнь Раймунда. В букинистическом магазине он берет словарь португальского языка и книгу Амадеу ди Праду - португальского писателя и врача, который принимал участие в сопротивлении диктатуре Салазара. Очарованный женщиной и книгой, Грегориус решает бросить все и уехать в Лиссабон, чтобы узнать больше об Амадеу и его судьбе.

В Лиссабоне Грегориус знакомится с людьми, которые знали Амадеу лично или через его произведения. Он узнает о его жизни, любви, дружбе, страстях и разочарованиях. Раймунд открывает для себя новую страну, новый язык, новую культуру. Он начинает задавать себе вопросы о своем прошлом, настоящем и будущем. Он понимает, что его жизнь может быть иной, идти совершенно по-другому.

Книга “Ночной поезд на Лиссабон” - это не только захватывающий роман-путешествие, но и глубокое философское сочинение. Автор цитирует множество мыслей о человеке и мире, о свободе и ответственности, о вере и сомнении, почерпнутых из книги Амадеу ди Праду. Эти мысли заставляют читателя относиться к героям не как к вымышленным персонажам, а как к живым людям, которые имеют свою правду и свою тайну.

Я рекомендую эту книгу всем, кто любит не только читать, но и думать. Кто не боится менять свою жизнь и открываться новому. Кто хочет почувствовать атмосферу Португалии и услышать ее мелодию.

Если не хочется читать книгу, то по ней есть фильм. Но в нем немного меньше магии и обаяния книги, так что вам придется поступиться частью ее духа ради краткости изложения.
​​С товарищами с других каналов запилили свою папку про ИТ. Набор каналов весьма разнообразный: тематические мероприятия, аналитика, QA, нейронные сети, а также авторские каналы про мир больших данных и разработки. 

Жмакайте ссылку, чтобы добавить себе папку. Ну и читайте всякое интересное, ясное дело ;)
 
Внимание: чтобы все работало, важно установить последнюю версию Telegram
#management

Немного про напоминалки.

Часто ловлю себя на мысли, что в голову пытаются проникнуть уж слишком много контекстов разом. Потому приходится их куда-то выгружать (например, записывать). И все равно, иногда что-то, да потеряется.

Потому сегодня проговорим про напоминалки. У меня есть несколько вариантов:
1. Самый простой - поставить себе встречу или напоминалку в календарь. Тогда компьютер или телефон обязательно напомнят про это. Увы, но если напоминалка стоит в неподходящий момент, то ее можно проигнорировать с мыслями "ой, сейчас гляну" (ну и забыть об этом, конечно). Но, в среднем, метод рабочий;
2. Стикеры на стене с краткими напоминаниями. Это скорее для больших вещей - вроде проектов или крупных идей. Что-то вроде "когда видишь и есть время, немного поработай по этому направлению";
3. "Помойка" в виде сохраненок в телеграме. Туда я спускаюсь на просмотр раз в несколько месяцев. Иногда оттуда выуживаются весьма полезные вещи. Чаще оно продолжает лежать на дне вечно ;)
4. Иногда мозг сам цепляется за что-то и не хочет отпускать. Такое я просто оставляю (раз мне почему-то это запоминается, то стоит себе поверить и держать это в голове - когда процесс обработается в ленивом решении, станет понятно, почему же я за это зацепился). Это самый ненадежный метод, но для меня все равно работает приемлемо.

В дополнение приведу методу из Дорофеева: "Крючки памяти" (конкретно, в виде "интеллект-карты"). Это как раз вариант выгрузки забытых мыслей из п.4. Итак, последовательность действий такова:
1. Найдите спокойное тихое место, сядьте.
2. Начните вдумчиво просматривать слова (обычно интеллект-карты просматривают с "двенадцати часов" по часовой стрелке).
3. Если вдруг какое-то слово напоминает вам о чем-то, что вы должны сделать, над чем подумать или "не забыть" по какой-то другой причине, - запишите то, что вылезло из головы (важно записать именно то, что вылезло, а не тот спусковой крючок, на котором оно вылезло).

Пример такой интеллект-карты по ссылке.
#libraries

TSGM - достаточно новая любопытная библиотека для генерации синтетических и аугментации временных рядов.

Реализованы методы, основанные на GAN и VAE. Есть три варианта использования: чисто синтетические правила генерации, data-driven генерация и микс двух подходов.

Думаю, что в прод такое не потащишь (ибо версия 0.0.0, кек). Но для исследований поиграться можно.
​​#statistics

Что такое гетероскедастичность ошибок и как с ней борются?

Гетероскедастичность (англ. heteroscedasticity) — понятие, используемое в прикладной статистике (чаще всего — в эконометрике), означающее неоднородность наблюдений, выражающуюся в неодинаковой (непостоянной) дисперсии случайной ошибки регрессионной (эконометрической) модели.

Пример на изображении к посту. Можно заметить, что при изменении некоторого признака (ось X) меняется и разброс ошибок (ось Y).

И как же это влияет на оценки коэффициентов Метода Наименьших Квадратов (МНК)?

1. МНК-оценки коэффициентов остаются несмещенными;
2. МНК-оценки перестают быть эффективными (то есть не имеют наименьшую дисперсию в своем классе);
3. Стандартные ошибки коэффициентов, рассчитанные по формуле для случая гомоскедастичности, оказываются смещенными и несостоятельными.

То есть, сами полученные значения оценок остаются примерно такими же. А вот уже полученные доверительные интервалы и выводы о значимости оценок коэффициентов получаются некорректными.

Что же делать?

1. Делать поправку при расчете ошибок. То есть, использовать т.н. состоятельные в условиях гетероскедастичности стандартные ошибки (heteroskedasticity consistent (heteroskedasticity robust) standard errors). Обычно, эти поправки есть практически в любом пакете статистического анализа и имеют обозначения HC0, HC1, HC2, HC3 (пример из statsmodels);
2. Использовать взвешенный метод наименьших квадратов (weighted least squares, WLS) (опять же, пример).

И какая из оценок лучше?

В общем случае, можно было бы сказать, что лучше использовать WLS. Но очень важное для этого предположение состоит в том, что для этого у нас должно быть верно специфицированно уравнение для дисперсии случайной величины (то есть, мы знаем, как в реальности ведет себя наша гетероскедастичность). А это не так просто, как кажется на первый взгляд.

Плюс, обычно при большом объеме данных даже обычный МНК дает вполне удовлетворительные результаты. Потому, чаще всего применяют обычный МНК с робастными стандартными ошибками (проще всего включать их автоматом, т.к. при отсутствии гетероскедастичности поправка не будет вносить сильных изменений и мы будем получать результаты, очень похожие на оценки при использовании формулы для случая гомоскедастичности).
#разное

У меня отпуск, поэтому просто закину сюда один из своих этюдов с интенсива по фантастике.

"В чреве бюрократического левиафана смиренно ожидали своей участи души разномастного люда: были здесь и подслеповатые бабушки, пришедшие за льготой и молодые родители, вписывающие новорожденное дитя в анналы бюрократической истории. Отдельной группкой нахохлившихся воробьев сидели ожидающие выдачи красных корочек, что позволят упорхнуть из замерзшего города в окутанные теплым маревом дальние страны. 

Все в этом чреве было упорядочено – на входе стояли приветливые муравьи, одетые в красные ливреи. В их глазах мерцала кровеносная система левиафана, по которой они запускали вновь пришедших посетителей. Внутри, вне видимости пришедших, копошились десятки жучков-паучков, несущих свою добычу, или, с неохотой выпускающие из своих лап немного живительной бумаги, чтобы пристрастить, привести вновь души во чрево своего повелителя.

Время то застывало цветущей стоячей в луже водой, то неслось горным потоком. Левиафан взирал на это со спокойствием, казалось бы, вечным и в своей мудрости всепонимающим. Секунды жизни питали его, наполняли бездонное его чрево. Волны душ то набегали, то исчезали, словно увлеченные отливом. В конце концов, последние души счастливо покидали чрево левиафана, крепко ухватив свою добычу. Разбегались жучки-паучки, муравьишки шли стройной толпой из чрева, чтобы завтра вернуться вновь, разгоняя кровь по могучему телу. Левиафан медленно погружался в тихую дремоту."
Forwarded from AI для Всех
Deep TDA работает лучше, чем традиционные алгоритмы снижения размерности🔬🧮

Мы вступаем в новую эру анализа данных благодаря прорывному алгоритму - Deep TDA. Этот новаторский метод, который позволяет добывать инсайты из сложных данных. Он сочетает в себе мощь self-supervised learning и Топологического Анализа Данных (TDA).

Долгое время такие инструменты, как t-SNE и UMAP, были непревзойденными в области снижения размерности. Их роль в анализе сложных наборов данных неоценима, причем t-SNE, разработанный Хинтоном и ван дер Маатеном еще в 2008 году, до сих пор очень популярен.

Но ветер перемен дует! Deep TDA обещает впечатляющие возможности:

1️⃣ Он демонстрирует устойчивость к шуму и выбросам.
2️⃣ Он эффективно масштабируется для сложных, высокоразмерных наборов данных.
3️⃣ Он снимает необходимость в тщательной настройке или глубоком понимании данных.
4️⃣ Он охватывает и отображает более полную картину набора данных.

На картинке сверху сравнительное исследование всех трех техник на временном ряде (исследователи повесили акселерометр на корову, посмотрите как TDA он пути создает кластеры для разных типов движения):

• t-SNE удерживает слишком много структуры, большая часть которой не существует.
• UMAP справился лучше, хотя структура казалась несколько размытой.
• TDA, однако, сработал великолепно, сохраняя детализированную структуру данных.

Deep TDA это еще один важный шаг к светлому будущему анализа данных!

🦾 Блог-пост
​​#video

Вот и подъехало видео моего доклада с датафеста. Но не только оно. Подъехала вся секция "Reliable ML". Там много интересных докладов, на вечер точно хватит ;)

P.S. А нас уже набралось больше тысячи. Спасибо, что читаете, мне очень приятно!
#interpretable_ml

Давайте начнем большую тему интерпретируемого машинного обучения. Начнем с базовых понятий, постепенно спускаясь в глубины (ну или поднимаясь на вершины, этот выбор оставлю на вкус читателя). Я побуду вашим Овидием в этом интересном (надеюсь) путешествии.

Итак, начнем с того, что вообще такое интерпретируемое машинное обучение.

Интерпретируемая модель машинного обучения - это такая модель, результаты и выводы которой может предсказать и объяснить эксперт.

Соответственно, обычно модели любят делить на две крайности одной сущности: модели черного и белого ящика. В черном ящике мы совсем ничего не понимаем, но видим результаты модели. В белом ящике мы видим весь процесс и можем в деталях понять, почему был получен именно такой вывод.

Когда нам нужна интерпретируемость?

Собственно, в тех случаях, когда нам нужно тем или иным образом проверять или использовать результаты и выводы нашей модели. Это нужно в следующих случаях:
1. Нам хочется получать из результатов новые знания (то есть, в научных целях нам лучше бы понимать, как конкретный инструмент получает те результаты, которые мы видим);
2. Мы хотим быть уверены, что модель принимает "честные" решения, которые не дискриминируют никакие группы населения;
3. Нам нужно знать, что чувствительная информация надежно защищена;
4. Мы хотим понимать, робастна ли модель и если нет, то что приводит к неустойчивости ее поведения;
5. Мы хотим быть уверены, что модель выучила только причинно-следственные отношения, а не ложные корреляции;
6. Мы хотели бы видеть больше доверия от пользователей модели. Обычно, человеку гораздо проще доверять тому, чью логику он может понять.

А когда интерпретируемость не особо важна?

1. Когда результаты модели не особо важны (нет влияния на чье-то здоровье или благополучие);
2. Когда область изучена вдоль и поперек. И мы точно знаем, что вполне себе можем делегировать принятие решения черному ящику;
3. Когда мы не хотим, чтобы пользователи могли научиться "обманывать систему" (например, если вы выдаете кредиты, то вам не очень хочется, чтобы фродеры знали, какие признаки помогают получше прикинуться честным заемщиком).
#interpretable_ml

Продолжаем говорить про интерпретируемое машинное обучение.

На этой неделе пройдемся по таксономии понятий в интерпретируемости моделей машинного обучения.

Внутренняя интерпретируемость и анализ после использования (Intrinsic or post hoc). В данном случае, мы либо пытаемся получить модель, которая сама объяснить свои действия и результаты, либо пытаемся после получения результатов научиться объяснять, почему получились именно такие результаты и выводы.

Результат метода интерпретации:
- Некий score для признака (например, importance);
- Визуализация зависимости для признака (например, partial dependence);
- Внутренние показатели модели (например, веса признаков);
- Data point (генерируем или ищем существующие точки в данных, чтобы объяснить, на что похож наш пример);
- Объяснимая модель (например, аппроксимация более сложной black box модели более простой, но интерпретируемой).

Модельно-специфическая или модельно-агностическая интерпретируемость (Model-specific or model-agnostic). Здесь речь про то, полагается ли метод на какие-то особенные свойства определенной модели машинного обучения, или подходит для использования с любыми моделями.

Локальная или глобальная интерпретируемость (Local or global). Мы можем интерпретировать модель в целом, или какие-то отдельные точки (или предсказания), а можем использовать и промежуточный вариант - какие-то поднаборы данных из всего датасета.
#interpretable_ml

PFI (permutation feature importance). Что это такое и как работает?

В PFI есть слово permuatation. Оно, собственно, и определяет, что мы будем делать. Давайте для каждого признака будем "перемешивать" значения и смотреть, насколько изменилась наша ошибка предсказаний. Получаем весьма простой модельно-агностический (независимый от реализации конкретного алгоритма обучения) метод.

Плюсы метода:
1. Легко интерпретировать - мы понимаем, насколько изменяется качество модели при "разрушении" признака;
2. Можно сравнивать результаты между разными моделями;
3. Помимо важности самого признака, мы еще автоматически учитываем и важность взаимодействий между признаками (если мы "перемешали" признак, то мы "перемешали" и все взаимодействия между признаками);
4. Нам не нужно переобучать модель. То есть, мы не тратим время и вычислительные ресурсы на новые циклы обучения.

Минусы метода:
1. Мы привязаны к определению ошибки. То есть, важность признака зависима от той метрики, ухудшение которой мы мониторим;
2. Нужно знать реальные таргеты. Если у нас только модель и неразмеченные данные - то мы не можем вычислить важность признаков;
3. Учитывая случайность перестановок, наши результаты могут меняться от запуска к запуску (причем, весьма сильно);
4. У нас может возникать смещение в наших оценках из-за нереалистичных точек данных. Например, если мы случайно пересортируем рост, но оставим вес, то может получиться точка данных с ростом 185 см и весом 10 кг (что невероятно);
5. Наличие коррелированных признаков может снижать важность группы признаков, т.к. общая "важность" может "расщепляться" между этими признаками.

В итоге, метод весьма неплохой, но со своими минусами (причем, достаточно важными минусами). Если хотите поиграть с методом, можете взять пример реализации из sklearn.
#interpretable_ml

Оцениваем важность признаков с логистической регрессией.

Сначала стоит напомнить, что это за регрессия такая. Логистическая регрессия - это метод классификации. Внутри лежит логистическая функция 1 / (1 + exp(-z)), где z можно представить в виде w0 + w1 * x1 + w2 * x2 + ..., где wi - веса при признаках, а xi - значения признаков. В итоге, мы ищем гиперплоскость в пространстве заданной размерности, которая наилучшим образом разделяла бы наши два класса. Не буду сильно ударяться в детали, предлагаю подробнее почитать в этом материале.

Коэффициенты в получаемой модели - это логарифмические шансы (логарифм от отношения шансов). А вот само отношение шансов понять не сложно - это соотношение того, насколько один исход более вероятен, чем другой (как в ставках - шанс 1к7, 1к3 и т.п.). То есть, веса можно интерпретировать так: при увеличении веса признака wi на 1, отношение шансов меняется на exp(wi).

Например, если у нас получился коэффициент 0.38 для признака курения в задаче определения сердечно-сосудистых заболеваний (ССЗ). Это значит, что курение (величина бинарная, так что там только 0 и 1) влечет изменение отношения шансов на exp(0.38) = 1.46 (при учете того, что остальные признаки фиксированы). То есть, при прочих равных, курение приводит к увеличению шансов ССЗ в примерно 1.5 раза.

Стоит отметить, что смотреть только на веса не стоит. Еще важно оценивать, насколько значимыми получились оценки весов. Если оценка статистически значима, то такой признак стоит учитывать в интерпретации.

Минусы метода:
1. Не учитываются взаимодействия признаков (если этого не добавить руками);
2. Даже при добавлении взаимодействий, модель все равно может "упрощать" связи;
3. Интерпретация достаточно непростая (нужно понимать концепцию отношения шансов и верно интерпретировать результаты).
​​#разное

Недавно увидел обложку книги писателя-фантаста Говарла Фаста "Генерал, подстреливший ангела". Ничего не напоминает? Еще и ангел в названии...

Это изображение очень похоже на кадр из аниме "Конец Евангелиона" (см. сравнение с кадром здесь).

Мне очень нравится узнавать такие неожиданные факты. Увлекательно искать отсылки и в кино. А уж если они еще и намекают на дальнейший сюжет, ух... Очень радует, когда разгадываешь маленькие "загадки" автора произведения. Они делают произведение глубже и добавляют дополнительные уровни в повествование и смыслы.

Собственно, такой подход есть и в литературе. Возьмем очень известное произведение Рэя Бредбери: рассказ "Будет ласковый дождь". Название рассказа, между прочим, отсылка к стихотворению другого автора - Сары Тисдейл. И, если знать текст этого стихотворения, то можно догадаться и о том, что будет в сюжете рассказа. Вот перевод стихотворения (за авторством Михаила Рахунова):

Будет ласковый дождь, будет запах земли,
Щебет юрких стрижей от зари до зари,
И ночные рулады лягушек в прудах,
И цветение слив в белопенных садах.
Огнегрудый комочек слетит на забор,
И малиновки трель выткет звонкий узор.
И никто, и никто не вспомянет войну —
Пережито-забыто, ворошить ни к чему.
И ни птица, ни ива слезы не прольёт,
Если сгинет с Земли человеческий род.
И весна… и весна встретит новый рассвет,
Не заметив, что нас уже нет.

P.S. Евангелион очень уважаю. Тут я в лагере тех, кому произведение очень нравится (правда, мне нравится только оригинальный сериал и последний ребилд).
P.P.S. У меня пока слабо выходит вплетать такие дополнительные слои в свои произведения. Но уже понемногу пытаюсь, т.к. очень уж нравится этот прием.
#разное

Близится осень. И, конечно же, я умудрился простудиться ;(
Потому будет простой пост про интересное кино на вечер.

Сегодня я хочу рассказать вам о фильме «Смотрите, как они бегут». Это комедийный детектив, снятый по мотивам пьесы Агаты Кристи «Мышеловка». В главных ролях снялись Сэм Рокуэлл и Сирша Ронан, которые играют полицейских, расследующих убийство американского режиссёра в театре в Вест-Энде. Это очень забавная смесь комедии и детектива. Особенно мне зашли мета-шутки про процесс написания и создания кино (думаю, вы поймете, о чем я, когда посмотрите). Ну и актерский состав там отличнейший.

На Кинопоиске у фильма рейтинг 6.4 из 10 (как по мне - преступно мало). В общем, если вы любите комедии и детективы, то я рекомендую вам посмотреть этот фильм.

P.S. Спасибо подписчикам за внимательность. Таки из-за болезни написал совсем не ту оценку с кинопоиска ;(
​​#разное

На этой неделе все еще отходил от простуды. Потому *барабанная дробь* опять пост про фильм.

Пока болел, посмотрел весьма любопытный эстонский фильм "Прощай, СССР!" (оценка на кинопоиске 6.1).

Чем-то фильм напоминает работы Уэса Андерсена и Тайки Вайтити. Такая вот симметрично-геометричная абсурдная сказка с весьма любопытным юмором.

Основная нить повествования - это описание ранних лет жизни мальчика Йоханнеса, который живет в Эстонской ССР. Но живет он в весьма необычное время - на самой границе между союзом и его развалом. А потому фоном к достаточно личной истории идет много чего куда более глобального (и, возможно, печального): развал СССР, Афганистан, общение с КГБ и многое другое.

Выглядит интересно и необычно. Ну и посыл весьма позитивный: хоть в союзе многого не было, но человеческое общение и любовь были. Да и не так уж, в сущности, отличается мир внутри железного занавеса и вне его (впрочем, мне тут сложно судить, я в союзе не жил).

В общем, как кино на вечер - очень даже ничего. Хотя, я бы сказал что оно весьма трагикомичное. То есть, там есть забавные и смешные моменты, но фон истории и некоторые события весьма трагичные.

P.S. Гену было очень жалко (если посмотрите - поймете), это была весьма сильная сцена, на мой взгляд.
2025/06/19 07:38:23
Back to Top
HTML Embed Code: