#известное_неизвестно
Этальная топология
Возьмём плоскость с проколом в нуле. Какие у неё когомологии? Ясно, как у окружности: H^0(R^2 \0, Z) = H^1(R^2 \0, Z) = Z.
С другой стороны, если ввести топологию Зарисского: множество замкнуто iff оно конечно или вся проколотая плоскость, можно сосчитать, что H^0(R^2 \0, Z) = Z, H^1(R^2 \0, Z) = 0.
Этот феномен называется Serre vanishing. А именно, на аффинных многообразиях с топологией Зарисского (в нашем случае C \0 ≈ R^2 \0) все когомологии в положительных степенях зануляются.
Тем не менее, наверное вы согласитесь, что это бывает довольно неудобно: всё же мы бы хотели иметь аппарат "обычных" когомологий в алгебраической геометрии.
И решение есть: нужно поменять неудобную топологию Зарисского на замечательную этальную топологию.
Заметка Манина (1965) об этальной топологии как алгебраической версии аналитической топологии. Написано в парадигме explain like I'm five years old(второкурсник).
Дринфельд пишет, что в семнадцать лет на него произвело большое впечатление.
В нашем примере этальные когомологии
H^0_{et}(C\0, Z) = H^1_{et}(C\0, Z) = \hat{Z}.
Здесь \hat{Z} -- проконечное пополнение Z, обратный предел конечных циклических групп Z/ nZ по всем n.
Теперь это вычисление работает для мультипликативной группы любого алгебраически замкнутого поля K.
H^0_{et}(K^*, Z) = H^1_{et}(K^*, Z) = \hat{Z}.
Гротендик придумал этальную топологию для того чтобы доказать Гипотезы Вейля, аналог гипотезы Римана над конечными полями. Сегодня этальная топология, и, более общо, топологии Гротендика повсеместно используются в алгебраической геометрии, гомотопической теории, теории топосов.
Этальная топология
Возьмём плоскость с проколом в нуле. Какие у неё когомологии? Ясно, как у окружности: H^0(R^2 \0, Z) = H^1(R^2 \0, Z) = Z.
С другой стороны, если ввести топологию Зарисского: множество замкнуто iff оно конечно или вся проколотая плоскость, можно сосчитать, что H^0(R^2 \0, Z) = Z, H^1(R^2 \0, Z) = 0.
Этот феномен называется Serre vanishing. А именно, на аффинных многообразиях с топологией Зарисского (в нашем случае C \0 ≈ R^2 \0) все когомологии в положительных степенях зануляются.
Тем не менее, наверное вы согласитесь, что это бывает довольно неудобно: всё же мы бы хотели иметь аппарат "обычных" когомологий в алгебраической геометрии.
И решение есть: нужно поменять неудобную топологию Зарисского на замечательную этальную топологию.
Заметка Манина (1965) об этальной топологии как алгебраической версии аналитической топологии. Написано в парадигме explain like I'm five years old(второкурсник).
Дринфельд пишет, что в семнадцать лет на него произвело большое впечатление.
В нашем примере этальные когомологии
H^0_{et}(C\0, Z) = H^1_{et}(C\0, Z) = \hat{Z}.
Здесь \hat{Z} -- проконечное пополнение Z, обратный предел конечных циклических групп Z/ nZ по всем n.
Теперь это вычисление работает для мультипликативной группы любого алгебраически замкнутого поля K.
H^0_{et}(K^*, Z) = H^1_{et}(K^*, Z) = \hat{Z}.
Гротендик придумал этальную топологию для того чтобы доказать Гипотезы Вейля, аналог гипотезы Римана над конечными полями. Сегодня этальная топология, и, более общо, топологии Гротендика повсеместно используются в алгебраической геометрии, гомотопической теории, теории топосов.
Рубрика #очевидно
TLDR: Кривизна Риччи определена канонически как проектор полной кривизны на подпредставление относительно действия O(n).
_____________________________
Пусть (M, g) -- гладкое вещественное риманово многообразие со связностью Леви-Чивиты ∇.
Это означает, что ∇ согласованна с метрикой и без кручения:
∇ g = 0,
∇_X Y - ∇_Y X = [X, Y].
Кривизной связности ∇ называется 4-тензор
R_∇ ( X, Y, Z) = ∇_X ∇_Y Z - ∇_Y ∇_X Z = ∇_[X, Y] Z.
Отождествив при помощи метрики касательное и кокасательное расслоение, можно думать про R_∇ как про 4-тензор: R_∇ ∈ TM^{⊗4}.
Например, если кривизна многообразия оказалось нулевой, это накладывает на него большие ограничения. А именно, на нём возникает so-called аффинная структура: можно выбрать карты, так что функции перехода будут аффинными y = Ax + b.
Но не всегда удобно работать с 4-тензором полной кривизны: из него бывает полезно изготовить 2-тензор кривизны Риччи Ric_∇. Он получается сворачиваением первого и третьего (или, что то же самое, второго и четвёртого) индекса R_∇ при помощи метрики.
Но какой во всём этом смысл?
_____________________________
Теоретико-представленческий взляд говорит следующее.
Это правда, что кривизна -- это 4-тензор R_∇ ∈ TM^{⊗4}. Но на этот тензор есть несколько ограничений (тождества Бьянки, среди прочего), поэтому на самом деле он лежит в некотором подпространстве Curv ⊂ TM^{⊗4}.
Оказывается, что абстрактно Curv -- это неприводимое представление GL(n) веса 2 ω_2. Иными словами оно отвечает диаграмме Юнга 2x2.
А как представление SO(n) Curv раскладывается на три неприводимые компоненты: веса 0, веса 2 ω_1 и веса 2 ω_2.
Проектор на тривиальное представление называется скалярной кривизной s_∇;
проектор на сумму первых двух компонент -- кривизной Риччи Ric_∇;
а проектор на последнюю третью компоненту -- кривизной Вейля Weyl_∇.
Именно поэтому кривизна Риччи строится по полной кривизне однозначно: это единственный способ из кривизны сделать симметрическую матрицу SO(n)-эквивариантным способом.
А скалярная кривизна -- это просто SO(n)-инвариантная часть полной кривизны.
_____________________________
Детали прописаны, например, в секции 10.3 книжки Goodman&Wallach Symmetry, Representations, and Invariants (2009). Очень хорошая книжка с современным изложением кондовой теории инвариантов классических групп через двойственность Шура-Вейля и трюк Атии-Ботта-Патоди.
_____________________________
Кривизна Риччи играет важную роль, например, в комплексной геометрии. Существование в данном кэлеровом классе Риччи-плоской метрики Калаби-Яу позволяет разложить конечное накрытие компактного кэлерового многообразия в произведение многообразий специального вида. Это следствие гипотезы Калаби (1957), теоремы Калаби-Яу, которое называется теорема Бовиля-Богомолова о разложении.
TLDR: Кривизна Риччи определена канонически как проектор полной кривизны на подпредставление относительно действия O(n).
_____________________________
Пусть (M, g) -- гладкое вещественное риманово многообразие со связностью Леви-Чивиты ∇.
Это означает, что ∇ согласованна с метрикой и без кручения:
∇ g = 0,
∇_X Y - ∇_Y X = [X, Y].
Кривизной связности ∇ называется 4-тензор
R_∇ ( X, Y, Z) = ∇_X ∇_Y Z - ∇_Y ∇_X Z = ∇_[X, Y] Z.
Отождествив при помощи метрики касательное и кокасательное расслоение, можно думать про R_∇ как про 4-тензор: R_∇ ∈ TM^{⊗4}.
Например, если кривизна многообразия оказалось нулевой, это накладывает на него большие ограничения. А именно, на нём возникает so-called аффинная структура: можно выбрать карты, так что функции перехода будут аффинными y = Ax + b.
Но не всегда удобно работать с 4-тензором полной кривизны: из него бывает полезно изготовить 2-тензор кривизны Риччи Ric_∇. Он получается сворачиваением первого и третьего (или, что то же самое, второго и четвёртого) индекса R_∇ при помощи метрики.
Но какой во всём этом смысл?
_____________________________
Теоретико-представленческий взляд говорит следующее.
Это правда, что кривизна -- это 4-тензор R_∇ ∈ TM^{⊗4}. Но на этот тензор есть несколько ограничений (тождества Бьянки, среди прочего), поэтому на самом деле он лежит в некотором подпространстве Curv ⊂ TM^{⊗4}.
Оказывается, что абстрактно Curv -- это неприводимое представление GL(n) веса 2 ω_2. Иными словами оно отвечает диаграмме Юнга 2x2.
А как представление SO(n) Curv раскладывается на три неприводимые компоненты: веса 0, веса 2 ω_1 и веса 2 ω_2.
Проектор на тривиальное представление называется скалярной кривизной s_∇;
проектор на сумму первых двух компонент -- кривизной Риччи Ric_∇;
а проектор на последнюю третью компоненту -- кривизной Вейля Weyl_∇.
Именно поэтому кривизна Риччи строится по полной кривизне однозначно: это единственный способ из кривизны сделать симметрическую матрицу SO(n)-эквивариантным способом.
А скалярная кривизна -- это просто SO(n)-инвариантная часть полной кривизны.
_____________________________
Детали прописаны, например, в секции 10.3 книжки Goodman&Wallach Symmetry, Representations, and Invariants (2009). Очень хорошая книжка с современным изложением кондовой теории инвариантов классических групп через двойственность Шура-Вейля и трюк Атии-Ботта-Патоди.
_____________________________
Кривизна Риччи играет важную роль, например, в комплексной геометрии. Существование в данном кэлеровом классе Риччи-плоской метрики Калаби-Яу позволяет разложить конечное накрытие компактного кэлерового многообразия в произведение многообразий специального вида. Это следствие гипотезы Калаби (1957), теоремы Калаби-Яу, которое называется теорема Бовиля-Богомолова о разложении.
Замечание: Curv действительно разлагается в сумму трёх компонент в размернсти n > 4. В маленьких размерностях есть не все представления:
для n = 2 -- только скалярная, она же гауссова кривизна;
для n = 3 есть только кривизна Риччи, компонента Вейля нулевая;
а для n = 4 происходит удивительное: одномерная скалярная кривизна складывается с девятимерной бесследовой частью кривизны Риччи, которое уже имеет вес 2 ω_1 + 2 ω_2; а десятимерная компонента Вейля неприводима только как представление O(4). Как представление SO(4) она раскладывается в сумму двух пятимерных неприводимых представлений с весами 4 ω_1 и 4 ω_2.
для n = 2 -- только скалярная, она же гауссова кривизна;
для n = 3 есть только кривизна Риччи, компонента Вейля нулевая;
а для n = 4 происходит удивительное: одномерная скалярная кривизна складывается с девятимерной бесследовой частью кривизны Риччи, которое уже имеет вес 2 ω_1 + 2 ω_2; а десятимерная компонента Вейля неприводима только как представление O(4). Как представление SO(4) она раскладывается в сумму двух пятимерных неприводимых представлений с весами 4 ω_1 и 4 ω_2.
Forwarded from Авва
Интересно, мне попалось мнение, что "это невероятно, но самая полная и ясно написанная коллекция учебников физики на уровне магистратуры - вся целиком написана одним чуваком из Кембриджа". Имеется в виду Дэвид Тонг, который выложил лекции по множеству предметов, от ньютоновской механики до квантового эффекта Холла.
Наверное, "Ландау и Лифшиц отдыхают" (продолжение этого мнения) можно списать на риторическое преувеличение, но вообще если физики могут посмотреть и высказать свое мнение - действительно ли это набор лекций потрясающего качества и широты обзора, или ничего особенного - буду благодарен, сам я судить не могу на таком уровне, а любопытно.
Наверное, "Ландау и Лифшиц отдыхают" (продолжение этого мнения) можно списать на риторическое преувеличение, но вообще если физики могут посмотреть и высказать свое мнение - действительно ли это набор лекций потрясающего качества и широты обзора, или ничего особенного - буду благодарен, сам я судить не могу на таком уровне, а любопытно.
Холево,_Квантовые_системы,_каналы,_информация.pdf
2 MB
Представляю изложение квантовой нерелятивистской теории с математической точки зрения. Прежде всего, этот подход наиболее востребован для квантовых вычислений. Книги академика РАН, А.С. Холево (в группе под чьим руководством я имею честь работать).
Думаю, что среди подписчиков найдутся желающие участвовать в переводе книг по матану Т. Тао, филдсовского лауреата (https://vk.com/feed?w=wall-186208863_43031). Сегодня кстати его день рождения.
VK
Ёжик в матане. Пост со стены.
Дорогие коллеги!
Вдохновившись днём рождения великого математика Теренса Тао (еженедельно д... Смотрите полностью ВКонтакте.
Вдохновившись днём рождения великого математика Теренса Тао (еженедельно д... Смотрите полностью ВКонтакте.
ozawa1987 (non-normal states).pdf
98.1 KB
Если открыть стандартный учебник по квантовой механике, там дают достаточно простое и естественное определение квантового измерения. А именно, пусть А -- оператор, имеющий базис собственных векторов {ψ(n)} с собственными значениями {a(n)}. Тогда постулируется, что после измерения волновая функция случайно редуцируется до одного из ψ(n) с вероятностью |(ψ, ψ(n))|^2. Но давайте возьмем оператор координаты, который имеет непрерывный спектр. Физики любят писать, что базис составляют дельта-функции |x> (где обозначено ψ(a=x)=|x>). Тогда, кажется, редуцирование должно происходить в такие штуки.
Forwarded from Сиолошная
Первая пошла
https://deepmind.google/discover/blog/ai-solves-imo-problems-at-silver-medal-level/
Система решила задач на 28 баллов из 42 (4 задачи из 6), золотая медаль от 29 (людей с баллом 29+ всего 58 из 609 участников)
Статей с деталями пока нет(
https://deepmind.google/discover/blog/ai-solves-imo-problems-at-silver-medal-level/
Система решила задач на 28 баллов из 42 (4 задачи из 6), золотая медаль от 29 (людей с баллом 29+ всего 58 из 609 участников)
Статей с деталями пока нет(
Google DeepMind
AI achieves silver-medal standard solving International Mathematical Olympiad problems
Breakthrough models AlphaProof and AlphaGeometry 2 solve advanced reasoning problems in mathematics
Матразнобой
Вид из университета Коламбия на перечислительную геометрию (image credits to Андрей Окуньков)
Мы начинаем от М-той авеню (каламбур на М-теорию), чуть дальше от которой параллельно идёт ДТ-тая авеню (каламбур на инварианты Дональдсона-Томаса).
К загадочным землям имени цепочки Тоды и уравнения Кортвега-де-Фриза ведёт мост Громова-Виттена. Облако в форме кренделя и многообразия Калаби-Яу заслоняют океан исчисления Шуберта на горизонте.
К загадочным землям имени цепочки Тоды и уравнения Кортвега-де-Фриза ведёт мост Громова-Виттена. Облако в форме кренделя и многообразия Калаби-Яу заслоняют океан исчисления Шуберта на горизонте.
Игорь Ростиславович Шафаревич родился в 1923 году в Житомире. В 19 лет стал кандидатом наук, в 23 -- доктором. Он первым в советском союзе начал заниматься алгебраической геометрией, был учителем Манина и многих других. В 1975 году его выгнали с мехмата за диссидентство; некоторые нематематические тексты Шафаревича (о судьбах России и спорах с Солженицыным) можно посмотреть тут.
А в 1983 году, к шестидесятилетию Игоря Ростиславовича вышел двухтомник под редакцией Артина и Тейта. Посмотрите только, какие люди поздравляют! Буквально лучшие геометры планеты на тот момент!
А в 1983 году, к шестидесятилетию Игоря Ростиславовича вышел двухтомник под редакцией Артина и Тейта. Посмотрите только, какие люди поздравляют! Буквально лучшие геометры планеты на тот момент!
Forwarded from DLStories
Наверное, многие слышали новость о том, что "AI завоевал серебро на межнаре по математике (IMO)" Так вот, я прочитала блогпост DeepMind по этому поводу и собрала главные поинты про модельку в пост.
Для начала, вводная по олимпиаде. IMO — это международная математическая олимпиада, высшая ступень олимпиад по математике. От каждой страны туда едет команда из шести человек. Олимпиада проходит в два дня, в каждый из дней дается три задачи и 4.5 часа на их решение. Задачи бывают четырех видов по темам: алгебра, теория чисел (тч), комбинаторика и геометрия. Каждая задача оценивается из 7 баллов, где 7 баллов — это полностью правильное решение задачи без ошибок и пробелов в рассуждении. Промежуточные баллы от 0 до 7 за решение получить при этом тоже можно. Например, если в решении пропущены пара незначительных моментов, поставят 5-6 баллов, а если задача не решена, но написаны идеи, потенциально ведущие к правильному решению, то можно получить до трех баллов.
Теперь, как устроена система для решения IMO от DeepMind и что там интересного:
Задачи по алгебре, тч и комбе решала модель AlphaProof, а по геометрии – другая, AlphaGeometry2. Всего модель решила 4 из 6 задач, все полностью правильно. Получается, набрала 7*4=28 баллов из возможных 36. Это — серебро на IMO 2024. Золото выдавалось от 29🤣
Теперь про модельки. Начнем с AlphaProof.
AlphaProof принимает на вход условие задачи и генерируют решение на формальном языке Lean. Получается, нужно как-то уметь переводить условие задачи, записанное на английском языке, на язык Lean. Для этого DeepMind взяли свою LLM Gemini и дообучили ее на эту задачу. Теперь условие задачи сначала попадает в Gemini, который переводит ее на Lean, и затем подает на вход AlphaProof.
AlphaProof — это RL-модель, практически идентичная AlphaZero, которая играла в Go. Работает AlphaProof так: сначала генерирует возможный ответ на задачу, а затем пытается доказать или опровергнуть правильность этого ответа, блуждая по пространству возможных утверждений-шагов доказательства (proof steps). Если удалось собрать верное доказательство, то этот пример используется для дообучения AlphaProof. Пишут, что до IMO модельку обучали на огромном пуле разных задач, а на самой олимпиаде делали вот что: генерировали разые вариации задач олимпиады, просили AlphaProof их решить, а верно найденные решения тоже использовали для дообучения AlphaProof на ходу. И так, пока не будет найдено решение основной задачи. Чем-то напоминает то, как люди тоже сначала стараются решить relaxed версии задач, прежде чем додуматься до решения основной.
Из интересного:
— на IMO были две задачи на алгебру, одна на тч, две на комбу и одна на геометрию. AlphaProof решила обе алгебры и тч, но не смогла решить ни одну комбинаторику😂 В принципе, у человеков тоже обычно проблемы с комбой, судя по моему школьному опыту...
— время, потраченное AlphaProof на решение разных задач, очень разное. Одни задачи она решила за минуты, а на другую потратила три дня. Учитывая, что у людей на решение трех задач дается 4.5 часа, то сравнение модели с человеками-участниками олимпиады не очень честное;
— решения модель выдавала только на те задачи, которые точно полностью смогла решить. Частичные решения модели не оценивались. Вот тут нечестно в другую сторону: возможно, с частичными решениями задач на комбу модель могла бы получить и больше 28 баллов, претендуя и на золото;
— утверждается, что решения модели полностью в соответствии с правилами олимпиады проверяли два уважаемых математика: Prof Sir Timothy Gowers (золотой медалист IMO и филдсовский лауреат) и Dr Joseph Myers (дважды золотой медалист IMO и член комитета IMO). Так что свои 28 баллов моделька, кажется, получила честно.
Продолжение ⬇️
Для начала, вводная по олимпиаде. IMO — это международная математическая олимпиада, высшая ступень олимпиад по математике. От каждой страны туда едет команда из шести человек. Олимпиада проходит в два дня, в каждый из дней дается три задачи и 4.5 часа на их решение. Задачи бывают четырех видов по темам: алгебра, теория чисел (тч), комбинаторика и геометрия. Каждая задача оценивается из 7 баллов, где 7 баллов — это полностью правильное решение задачи без ошибок и пробелов в рассуждении. Промежуточные баллы от 0 до 7 за решение получить при этом тоже можно. Например, если в решении пропущены пара незначительных моментов, поставят 5-6 баллов, а если задача не решена, но написаны идеи, потенциально ведущие к правильному решению, то можно получить до трех баллов.
Теперь, как устроена система для решения IMO от DeepMind и что там интересного:
Задачи по алгебре, тч и комбе решала модель AlphaProof, а по геометрии – другая, AlphaGeometry2. Всего модель решила 4 из 6 задач, все полностью правильно. Получается, набрала 7*4=28 баллов из возможных 36. Это — серебро на IMO 2024. Золото выдавалось от 29
Теперь про модельки. Начнем с AlphaProof.
AlphaProof принимает на вход условие задачи и генерируют решение на формальном языке Lean. Получается, нужно как-то уметь переводить условие задачи, записанное на английском языке, на язык Lean. Для этого DeepMind взяли свою LLM Gemini и дообучили ее на эту задачу. Теперь условие задачи сначала попадает в Gemini, который переводит ее на Lean, и затем подает на вход AlphaProof.
AlphaProof — это RL-модель, практически идентичная AlphaZero, которая играла в Go. Работает AlphaProof так: сначала генерирует возможный ответ на задачу, а затем пытается доказать или опровергнуть правильность этого ответа, блуждая по пространству возможных утверждений-шагов доказательства (proof steps). Если удалось собрать верное доказательство, то этот пример используется для дообучения AlphaProof. Пишут, что до IMO модельку обучали на огромном пуле разных задач, а на самой олимпиаде делали вот что: генерировали разые вариации задач олимпиады, просили AlphaProof их решить, а верно найденные решения тоже использовали для дообучения AlphaProof на ходу. И так, пока не будет найдено решение основной задачи. Чем-то напоминает то, как люди тоже сначала стараются решить relaxed версии задач, прежде чем додуматься до решения основной.
Из интересного:
— на IMO были две задачи на алгебру, одна на тч, две на комбу и одна на геометрию. AlphaProof решила обе алгебры и тч, но не смогла решить ни одну комбинаторику
— время, потраченное AlphaProof на решение разных задач, очень разное. Одни задачи она решила за минуты, а на другую потратила три дня. Учитывая, что у людей на решение трех задач дается 4.5 часа, то сравнение модели с человеками-участниками олимпиады не очень честное;
— решения модель выдавала только на те задачи, которые точно полностью смогла решить. Частичные решения модели не оценивались. Вот тут нечестно в другую сторону: возможно, с частичными решениями задач на комбу модель могла бы получить и больше 28 баллов, претендуя и на золото;
— утверждается, что решения модели полностью в соответствии с правилами олимпиады проверяли два уважаемых математика: Prof Sir Timothy Gowers (золотой медалист IMO и филдсовский лауреат) и Dr Joseph Myers (дважды золотой медалист IMO и член комитета IMO). Так что свои 28 баллов моделька, кажется, получила честно.
Продолжение ⬇️
Please open Telegram to view this post
VIEW IN TELEGRAM