Telegram Group Search
Вдогонку из той же статьи комбо из рубрик Классики внятно пишут и Автор не тормоз, но медленный газ

1. Наконец-то внятная интерпретация того, что такое корреляция Пирсона. Само соотношение я видел 100500 раз, но до меня никогда не доходило, что именно оно значит (автор если что написал диплом про коэффициенты корреляции). Просто 🤯
Заметим, что d Коэна тоже лежат где-то рядышком.

2. Красивое типографическое. Смотрите, как интересно они верстают десятичные дроби: используют точку посередине строки, а не запятую или обычную точку.
Материалы по теорверу и матстату от одноименной кафедры матфиза Карлова университета

По просьбам трудящихся выкладываю список основных материалов от моей кафедры, по которым учился в том числе и я. Все материалы академичны и математичны, с определениями, теоремами и доказательствами, поэтому как вводные тексты для нематематиков, наверное, подойдут не очень. Напротив, люди с техническим бекграундом или каким-то опытом в матстате могут сильно продвинуться, опираясь на эти тексты.

Что важно: это не постоянные ссылки. Курсы живут и развиваются, расширяются, переписываются и редактируются, объединяются и разделяются. Поэтому если вас заинтересовал конкретный материал, лучше скачайте файлик. Если вдруг какая-то ссылка умерла, вы можете потыкать меня в личку или в комментарии и я попробую это дело поправить.
Математическая статистика, 1 / 2

Матстат 1. Текст логически делится на две части. Сначала идет небольшое повторение теорвера и введение в теорию матстата: что такое выборка, что такое параметр, что такое оценка параметра, какие бывают общие подходы к построению оценок параметров (методы моментов и максимального правдоподобия, эмпирические оценки), что такое гипотезы и какие есть подходы к их тестированию. Во второй части разбирают классические тесты для всяких разных сеттингов: одновыборочные, парные и двувыборочные Колмогоров-Смирнов, т-тест, Вилкоксон (очень советую подробно прочитать секцию 6.4, посвященную двувыборочному Вилкоксону, он же Манн-Уитни). Целая глава посвящена тестам для бинарных категориальных данных (это те, которые "да-нет"). Многовыборочные тесты (анова, таблицы сопряженности) тоже рассматриваются, но не настолько подробно.

Матстат 2. В два раза короче, чем матстат 1 и вольно развивает повествование, начатое в первой части матстата 1. Абстрактная теория матстата: теория несмещенных точечных оценок и их эффективность, граница Рао-Крамера и достаточные статистики. Теория максимального правдоподобия, профильное правдоподобие. Теория статистистических тестов, теорема Неймана-Пирсона, тесты на основе правдоподобия, в том числе тесты с мешающими параметрами.
Математическая статистика, 2 / 2

Матстат 3. Обобщает, развивает и углубляет предыдущие два курса и наваливает нового материала. Повторение дельта-метода, углубление метода максимального правдоподобия (обычное, профильное, условное, маргинальное правдоподобия). Теория M- и Z-оценок (в том числе, как обобщение метода максимального правдоподобия, псевдо- и квазиправдоподобия). Квантильная регрессия. EM-алгоритм. Текст завершается короткой главкой про пропущенные наблюдения. В этом тексте хорошо расставлены ссылки на "настоящую литературу", всякие классические книжки.

Матстат 4. Раньше матстат 3 и матстат 4 были вместе одним предметом, потом их разделили. В этой части рассматриваем метод Монте-Карло, бутстреп (параметрический и непараметрический). Дальше в меню ядерные методы оценки плотности. Заканчивается все ядерной регрессией, включая оценку условной дисперсии.

Робастная статистика. Этот курс тоже отпочковался от совместного курса матстата 3+4. Весь текст посвящен выбросам и как работать с данными, которые их содержат, робастным оценкам и их свойствам. Я уже ссылался на него, когда писал про выбросы. Очень советую прочитать хотя бы секцию 1.1, чтобы иметь общее представление о выбросах и о том, с какой стороны к этому снаряду можно подходить.
Воспользуюсь служебным положением (привет-привет всем новеньким!) и позову вас на лекцию, которую завтра читает Женя Бакин. Это первая из трех лекций, попробуем с коллегами осветить и обсудить моменты в статистике, которые часто понимаются неправильно. Будут и ссылки на источники, которые можно использовать для самообразования или в спорах с рецензентами и коллегами. Я там тоже участвую на правах ветерана бурных обсуждений проверок на нормальность, но первые две лекции тоже классные.

Приходите, будем рады вас видеть!
Please open Telegram to view this post
VIEW IN TELEGRAM
Часть 2. Матстат и состоятельность оценок.

Интуитивно мы ожидаем, что чем больше объем выборки, тем ближе должна быть оценка к истинному значению эстиманда. Собственно, именно это и делает оценку оценкой, а не просто вумной формулой. Это ключевое архиважное свойство эстиматора — с увеличением выборки производить оценки, которые стремятся к эстиманду — называется состоятельность (или консистентность, consistency). Состоятельность оценки не является самоочевидной и должна доказываться математически.

Если это свойство не выполняется, мы говорим, что эстиматор несостоятелен (inconsistent). Несостоятельные эстиматоры на практике бессмысленны: они не оценивают интересующий нас эстиманд, неважно, насколько большую выборку мы возьмем.
Часть 3. Матстат и несмещенные оценки.

Заметим также, что поскольку на вход эстиматору подается случайная выборка (т. е. случайные величины), посчитанная точечная оценка тоже является случайной величиной (на другой выборке она была бы другой). Это значит, что для нашей оценки имеет смысл разговаривать, например, о ее матожидании. Более того, было бы здорово, если бы матожидание оценки было равно эстиманду. Такое свойство называется несмещенностью точечной оценки (unbiased estimators). Несмещенность оценки можно интерпретировать как то, что, в среднем, мы находимся около истинного значения эстиманда; эстиматор не привносит систематических искажений.

Существует целое ответвление статистики, которое занимается исключительно несмещенными оценками и их свойствами. Эстиматоры, которые не выполняют свойство несмещенности, в рамках этой области называют "не несмещенными" (not unbiased) или просто говорят о смещенных оценках / эстиматорах (biased estimators). Также в рамках этой области говорят о "смещении эстиматора" (estimator's bias): разности между матожиданием оценки и истинным значением эстиманда. Смещение может стремиться к нулю при растущей выборке (тогда мы говорим про асимптотически несмещенные эстиматоры), а может и нет.

Важно понимать, что свойство несмещенности (в том смысле, который я описал выше) является милым, но вторичным. Могут быть оценки несмещенные, но при этом несостоятельные: на практике они бессмысленны. Напротив, смещенная (в смысле, который я привел выше), но состоятельная оценка практически осмысленна и некоторые эстиматоры, которые мы применяем на практике, именно такие. Бывают даже состоятельные эстиматоры, которые при этом не являются несмещенными даже асимптотически (т.е. оценка сходится к эстиманду, а ее матожидание нет, ха!).
Подведем промежуточный итог. В генеральной совокупности у нас есть эстиманд, который мы ощупываем на основе выборки с помощью эстиматора. Ключевое свойство эстиматора — состоятельность: при увеличении объема выборки состоятельные эстиматоры выдают оценки, которые приближаются к эстиманду. Без этого свойства машинка не едет, можно расходиться.
Второе свойство, милое, но не необходимое — это несмещенность эстиматора.
(Не)состоятельность и (не)смещенность эстиматора могут комбинироваться в любых сочетаниях.
Часть 4. Смещения и байасы в эпидемиологии и биомедицине.

Проблемы начинаются, когда матстат сталкивается с биомедом. Вы все наверняка слышали про смещение оценок (bias), которое сильно не нравится людям в биомеде. Про то, что конфаундинг (спутывающие факторы) может смещать наши оценки, делая их biased. Про смещенные выборки и прочее такое. И что это плохо, потому что никакие большие выборки от этого не спасают и не лечат его, буууууу!

Подстава в том, что люди в эпидемиологии и биомеде называют байасом не то, что под этим понимают статистики. То, что медики и эпидемиологи называют смещенными / байаснутыми оценками, в классической статистике называют несостоятельностью.

Дайте этой мысли настояться, оцените ее иронию.

Чтобы совсем всех запутать, состоятельность и несмещенность может быть не только у точечных эстиматоров, но еще и статистических тестов, например. А еще доверительные интервалы тоже могут быть (не)состоятельными. Но это совсем другая история.
Про неопределенность (1/4)

Наткнулся на вот такую презентацию, там много разного красивого, есть над чем подумать, рекомендасьон. Тем не менее, сам материал будет читаться легче, если мы проведем в своей голове разницу между неопределенностями алеаторной и эпистемической. Если понять эту разницу, то сразу исчезнет путаница между доверительным и предсказательным интервалами, а также стандартной ошибкой и стандартным отклонением.

Слайд номер 48: на картинке зелеными точечками изображены сами измерения (видимо, это jitter plot), а также среднее и пачка разных интервалов. Давайте посмотрим на них поближе.
Про неопределенность (2/4). Эпистемическая неопределенность.

Начнем с доверительных интервалов. Мы помним, что статистика — это инструмент индуктивного вывода: имея на руках выборку, мы пытаемся что-то сказать о параметре в генеральной совокупности, которая нам недоступна целиком. Соответственно, с процессом статистического вывода и формирования представлений о параметре сопряжена некоторая неопределенность.

Пример: представим, что нас интересует среднее (наш эстиманд) в генеральной совокупности; вся ГС нам недоступна, поэтому мы набираем выборку, считаем среднее арифметическое (наш эстиматор) и ДИ к нему. Огрубляя, ширину ДИ можно рассматривать как погрешность сложного многосоставного
процесса измерения средней в ГС.

Интуитивно понятно, что чем шире ДИ, тем больше неопределенность нашего вывода (= выше погрешность). Тем не менее, если мы будем увеличивать объем выборки, интервалы будут сужаться, стремясь схлопнуться в точку. То есть, набирая больше данных, мы снижаем неопределенность. Таким образом, в этом примере речь идет о неопределенности, которая связана с нашим недостатком знаний об изучаемом параметре, и эта неопределенность уменьшается при увеличении выборки (= получении дополнительной информации), поэтому такая неопределенность называется эпистемической (ну или неопределенностью, связанной со статвыводом).

Доверительные интервалы (и их ширина), а также стандартная ошибка (SE) описывают как раз эпистемическую неопределенность (заметим, что в большинстве случаев ширина ДИ — это SE, умноженная на некоторую константу).
Про неопределенности (3/4). Алеаторная неопределенность.

Теперь задумаемся: как себя ведет SD при увеличении объема выборки? Нетрудно заметить, что с увеличением выборки (при некоторых технических допущениях, которые нас сейчас не очень волнуют) SD сходится к конкретному числу: стандартному отклонению в генеральной совокупности. То есть, ширина интервала mean +- SD не сходится к нулю. Заметим также, что теорема Чебышёва нам гарантирует, что в интервал типа mean +- 2*SD измерения попадают с вероятностью 75%. Иными словами, каждое следующее измерение с вероятностью 75% попадет в такой интервал. То есть такой интервал не описывает среднее или наши представления о нем, он описывает поведение членов генеральной совокупности, или в некотором смысле предсказывает их поведение.

Просуммируем: интервалы типа mean +- SD не схлапываются в точку с ростом выборки (т.е. мы не можем избавиться от этой неопределенности увеличивая объем выборки, получая информацию из новых наблюдений). Такой тип неопределенности называется алеаторная или предсказательная неопределенность.

Название происходит от латинского alea — азартные игры. Действительно, бросая игральную кость вновь и вновь, вы не приближаетесь к тому, чтобы предсказать сколько очков выпадет в следующем раунде. Эта неопределенность не происходит из вашего незнания о поведении кости, а является неотъемлемым свойством игральной кости.
Про неопределенность (4/4). Итого.

1. Есть эпистемическая неопределенность, которая связана с попыткой сказать что-то о параметере распределения и происходит из ограниченности нашего знания. Эпистемическая неопределенность описывается с помощью SE или ДИ и уменьшается с ростом выборки.

2. Алеаторная неопределенность является органичным свойством генеральной совокупности (или, шире, механизма производства данных), описывает вариабельность или изменчивость поведения отдельных элементов ГС и не уменьшается с простым увеличением объема выборки. Описывается с помощью SD, дисперсии или, например, IQR.

3. Отображать неопределенность на графиках и репортировать в тексте — это отличная идея, так и надо.

4. Важно однако правильно выбирать тип неопределенности, который вы хотите репортировать: алеаторный или эпистемический, и подбирать соответствующие инструменты.
Обычно в Таблице 1 и секции с описанием данных имеет смысл репортировать алеаторную неопределенность, поэтому мы там видим боксплоты, SD, IQR.
В части, посвященной статвыводу, важно репортировать неопределенность этого статвывода, поэтому там мы часто видим ДИ и, опционально SE для наших оценок.
Хозяйке на заметку

Хорошее упражнение, которое даёт пищу для размышлений. Возьмите какой-нибудь датасет (лучше лонгитудинальный, например, Orthodont) и попытайтесь создать его синтетическую версию, которая будет воспроизводить оригинальный датасет и его закономерности. Можете представить, что готовитесь к конференции и хотите на примере датасета показать классные штуки, но разглашать исходные данные нельзя, потому что потому.

Узнаете много интересного.

#хозяйке_на_заметку
Через час начнется следующая лекция из вот этого цикла. В этот раз разговариваем про категоризацию непрерывных данных и что с этим подходом (не) так. Подробности и пароли-явки по ссылке.

Ну а я в качестве полезного тизера положу пост Ильи Бирмана: дизайнеры, например, интуитивно понимают, что не так с разбиением на категории. Более того, с этим не так можно столкнуться и в повседневной жизни.
Без возрастных категорий

Когда бегаешь в Эпл-часах, они измеряют некий параметр VO₂ max, который характеризует твою кардиовыносливость. Я бегаю по чуть-чуть, и вот однажды прошлой весной этот VO₂ max у меня упал ниже среднего. Я расстроился и стал думать, как бы мне бегать получше, чтобы вырос обратно. Бегал-бегал, но всё лето он болтался вокруг того же значения, никак не становясь выше среднего.

И вот после очередной тренировки VO₂ max чуть-чуть упал, но Эпл показал, что он стал выше среднего! А благодаря теореме Коши, Вейерштрасса или кого-то из этих ребят мы понимаем, что если значение непрерывной функции было ниже некоторого значения, а потом упало, то оно ну никак не может стать выше этого значения. Я пошёл разбираться, что там произошло.

Оказалось, что с прошлой тренировки мне успело исполниться сорок лет, и я перешёл из категории 30—39 лет в категорию 40—49 лет, и среднее для меня резко уменьшилось — с 43 мл/кг/мин до 38 мл/кг/мин. То есть в логике Эпла между людьми 30 и 39 лет нет никакой разницы, но конкретно в день, когда тебе исполняется сорок, нормативы для тебя резко снижаются.

Делить людей на категории может быть необходимо, если у вас есть ограниченное количество различных предложений для них. Вы можете сделать только два правовых статуса, только три типа билетов, только пять размеров носков — вам приходится искусственно делить всех на категории, потому что писать каждому индивидуальные правила или делать индивидуальное предложение нерационально.

Но если вы работаете с большими данными, то нет причин искусственно снижать разрешение в тысячи раз. Вы можете показать каждому среднее именно для его возраста, или среди всех людей с разбросом 3 месяца вокруг него, или что угодно ещё. Это среднее будет не резко меняться в случайные моменты жизни раз в десять лет, а плавно падать естественным образом.
Пишите постмортемы

Хозяйке на заметку, стараюсь делать сам и рекомендую другим: после окончания каждого проекта пишите «постмортем». Можете в дневничок, можете в блог, можете в обсидиан или куда там еще.

Если вы столкнулись с какими-то нестандартными проблемами или задачами, которые заставили вас напрячься — опишите их и ход своей мысли. Написали какую-то классную функцию, которая упрощает жизнь, нашли изящное решение в коде, которое можно переиспользовать? Упомяните их, включите их в свой набор сниппетов. Если какая-то часть проекта была для вас особенно приятной и порадовала вас — упомяните и ее. И наоборот, если было что-то особенно бесявое, то обязательно напишите про это.

Во-первых, так у вас появится более точное понимание того, куда уходят ваши силы и к каким результатам это приводит. Во-вторых, это поможет отслеживать ваш профессиональный рост. В-третьих, это все неплохой материал для постов: получаете контент практически без усилий, да еще и, вероятно, сэкономите кому-то силы и нервы (делай добро и бросай его в воду). Наконец, это поможет вам быстрее нашуршать решения в ситуациях типа «блин, как же я это в прошлый раз делал».

Вообще свой набор сниппетов (и, шире, библиотек и прочих утилит и приблуд) чем-то восходит к традициям старых мастеров: раньше, во времена гильдий, у каждого мастера был свой собственный набор инструментов, который он собирал на протяжении своей жизни или получал в наследство от своего учителя, и который оставлялся в наследство подмастерьям.

#бэкстейдж #хозяйке_на_заметку
2025/06/15 09:58:21
Back to Top
HTML Embed Code: