Forwarded from ODS Events
Привет!
Пятничное продолжение релизов программы Data Fest 2024 🤗
Сегодня публикуем треки четырёх секций🦜 Феста:
- Speech о решении задачи обработки речи
- Reliable ML про эффективное внедрение ML IRL
- ML in EdTech о применении машинного обучения в образовательном процессе
- DS Career (early game edition) про карьерные вопросы в начале пути
Напоминаем, что Ваши реакты на блоках и треках очень важны спикерам и организаторам😇
Переходите по ссылкам выше, смотрите доклады, скачивайте презентации и голосуйте своими эмодзи (ставьте палец вверх 👍и другие эмодзи) на страницах блоков и треков за понравившиеся видео ❤️ Выберем лучшие доклады и треки вместе!❤️
Пятничное продолжение релизов программы Data Fest 2024 🤗
Сегодня публикуем треки четырёх секций
- Speech о решении задачи обработки речи
- Reliable ML про эффективное внедрение ML IRL
- ML in EdTech о применении машинного обучения в образовательном процессе
- DS Career (early game edition) про карьерные вопросы в начале пути
Напоминаем, что Ваши реакты на блоках и треках очень важны спикерам и организаторам
Переходите по ссылкам выше, смотрите доклады, скачивайте презентации и голосуйте своими эмодзи (ставьте палец вверх 👍и другие эмодзи) на страницах блоков и треков за понравившиеся видео ❤️ Выберем лучшие доклады и треки вместе!❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from New Yorko Times (Yury Kashnitsky)
Еще немного фэйлов
#fail #fake_text_detection #kaggle
Собесов больше нет, а фэйлить хочется. Особенно рассказывать о них публично. Снижать publication bias тксказать. Так что вот еще.
Вторая попытка организовать соревнование по детекции LLM-генерированного контента тоже провалилась. Народ снова повыбивал 99+, причем в решениях я видел даже pre-BERT модели типа AWD LSTM. Будет семинар при ACL, на котором победители расскажут про решения, но уже понятно, что там особого научного прорыва не будет, скорее эксплойт наших косяков. На бумаге все норм, сделали сореву и воркшоп при топовой конфе, но по сути так себе.
Есть еще пара фэйлов, если чуть копнуть в историю. В стиле «мужик сказал - мужик сделал вид, что нихрена не говорил». Как-то мы с Андреем Лукьяненко участвовали в необычном соревновании на кэггле, где надо было эссе писать. Так вот мы ничего не выиграли, где-то на 50 место приземлились. Напрягло чутка, что среди победителей был обзор методов оптимизации, каких на Medium найдешь сотню.
А еще я как-то хотел больше ютуб-видео снимать, и этого, очевидно, не произошло 😅 так что больше обещать не буду, хотя есть идеи вернуться с новым контентом к своим 20к подписчикам. Ща только зарегаюсь в Роскомнадзоре.
#fail #fake_text_detection #kaggle
Собесов больше нет, а фэйлить хочется. Особенно рассказывать о них публично. Снижать publication bias тксказать. Так что вот еще.
Вторая попытка организовать соревнование по детекции LLM-генерированного контента тоже провалилась. Народ снова повыбивал 99+, причем в решениях я видел даже pre-BERT модели типа AWD LSTM. Будет семинар при ACL, на котором победители расскажут про решения, но уже понятно, что там особого научного прорыва не будет, скорее эксплойт наших косяков. На бумаге все норм, сделали сореву и воркшоп при топовой конфе, но по сути так себе.
Есть еще пара фэйлов, если чуть копнуть в историю. В стиле «мужик сказал - мужик сделал вид, что нихрена не говорил». Как-то мы с Андреем Лукьяненко участвовали в необычном соревновании на кэггле, где надо было эссе писать. Так вот мы ничего не выиграли, где-то на 50 место приземлились. Напрягло чутка, что среди победителей был обзор методов оптимизации, каких на Medium найдешь сотню.
А еще я как-то хотел больше ютуб-видео снимать, и этого, очевидно, не произошло 😅 так что больше обещать не буду, хотя есть идеи вернуться с новым контентом к своим 20к подписчикам. Ща только зарегаюсь в Роскомнадзоре.
Unveiling Encoder-Free Vision-Language Models
Существующие VLM в основном используют vision encoders для извлечения визуальных признаков, что может ограничивать их гибкость и эффективность. Обучение VLM, принимающих визуальные и языковые данные без encoders, является сложной задачей.
В данной статье авторы предлагают эффективный метод обучения с использованием одного лишь decoder. Моделька основана на Vicuna-8B.
Подход довольно интересный. Из минусов: могут получить качество сравнимое с другими VLM, но требуется заметно больше данных; модель лучше делает то, на что её натренировали, но при этом проявляется catastrophic forgetting в чисто языковых задачах и в выполнении инструкций; ну и используют Vicuna, а не что-то современнее. Тем не менее, идея интересная, может быть в будущем получит развитие.
Paper link
Code link
Мои обзоры:
Personal blog
Medium
Linkedin Pulse
#paperreview
Существующие VLM в основном используют vision encoders для извлечения визуальных признаков, что может ограничивать их гибкость и эффективность. Обучение VLM, принимающих визуальные и языковые данные без encoders, является сложной задачей.
В данной статье авторы предлагают эффективный метод обучения с использованием одного лишь decoder. Моделька основана на Vicuna-8B.
Подход довольно интересный. Из минусов: могут получить качество сравнимое с другими VLM, но требуется заметно больше данных; модель лучше делает то, на что её натренировали, но при этом проявляется catastrophic forgetting в чисто языковых задачах и в выполнении инструкций; ну и используют Vicuna, а не что-то современнее. Тем не менее, идея интересная, может быть в будущем получит развитие.
Paper link
Code link
Мои обзоры:
Personal blog
Medium
Linkedin Pulse
#paperreview
Forwarded from Техножрица 👩💻👩🏫👩🔧
Ну чтож, дорогие подписчики, пришло время прославить новую ИИ-папку! Вот она:
https://www.group-telegram.com/addlist/C_RSYpbW5mIyMjVi
В этой папке собрано почти три десятка авторских ИИ-каналов в телеграмме. Есть каналы-сборники ссылок на научные статьи по ИИ ( http://www.group-telegram.com/NeuralSketches , https://www.group-telegram.com/j_links ), есть каналы с подробными объяснениями статей и размышлениями на разные темы (например, уже знакомый многим https://www.group-telegram.com/knowledge_accumulator ), есть каналы с заметками о жизни (например, Тани Гайнцевой - https://www.group-telegram.com/neural_wine ) и многое другое.
Выбирайте, что нравится или подписывайтесь на все сразу✍️
https://www.group-telegram.com/addlist/C_RSYpbW5mIyMjVi
В этой папке собрано почти три десятка авторских ИИ-каналов в телеграмме. Есть каналы-сборники ссылок на научные статьи по ИИ ( http://www.group-telegram.com/NeuralSketches , https://www.group-telegram.com/j_links ), есть каналы с подробными объяснениями статей и размышлениями на разные темы (например, уже знакомый многим https://www.group-telegram.com/knowledge_accumulator ), есть каналы с заметками о жизни (например, Тани Гайнцевой - https://www.group-telegram.com/neural_wine ) и многое другое.
Выбирайте, что нравится или подписывайтесь на все сразу
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Авторский ИИ
Dr. Boris invites you to add the folder “Авторский ИИ”, which includes 30 chats.
Хотел бы поделиться крутым каналом в сфере ML - "Борис опять" (http://www.group-telegram.com/boris_again). Он работает тимлидом ML в Planet Farms уже Staff Machine Learning Engineer в eBay.
Пишет про:
• ML, программирование в целом и ИИ (в каком виде он сейчас существует). Например вот этот пост про то, можно ли разбогатеть, работая в стартапе
• стендап комедии (в каком ещё ML канале про это почитаешь?)
• всякое интересное и веселое по жизни, науке, магистратуре и многому другому.
В постах было немало полезного для меня, так что рекомендую.
Так же мы собрали небольшую папку авторских телеграм каналов в сфере AI/ML/DS:
Авторский ИИ (https://www.group-telegram.com/addlist/C_RSYpbW5mIyMjVi)
Welcome 👀
Пишет про:
• ML, программирование в целом и ИИ (в каком виде он сейчас существует). Например вот этот пост про то, можно ли разбогатеть, работая в стартапе
• стендап комедии (в каком ещё ML канале про это почитаешь?)
• всякое интересное и веселое по жизни, науке, магистратуре и многому другому.
В постах было немало полезного для меня, так что рекомендую.
Так же мы собрали небольшую папку авторских телеграм каналов в сфере AI/ML/DS:
Авторский ИИ (https://www.group-telegram.com/addlist/C_RSYpbW5mIyMjVi)
Welcome 👀
Telegram
Борис опять
life = curiosity + irreducible noise
Whois: https://www.group-telegram.com/boris_again/1652
Лс: @btseytlin
Whois: https://www.group-telegram.com/boris_again/1652
Лс: @btseytlin
Crowdstrike уронил интернет, и как раз вчера на реддите критиковали эту компанию
Думаю, что многие уже ощутили или заметили сбой у Microsoft, от которого пострадали многие компании. Если же нет, то вот одна из многих ссылок.
Но я не об этом. Ровно вчера на реддите был пост с яростной критикой Crowdstrike:
И прям на следующий день случился сбой. Какое интересное совпадение.
Думаю, что многие уже ощутили или заметили сбой у Microsoft, от которого пострадали многие компании. Если же нет, то вот одна из многих ссылок.
Но я не об этом. Ровно вчера на реддите был пост с яростной критикой Crowdstrike:
Crowdstrike is not worth 93 billion dollars (at time of writing).
Fear: CrowdStrike is an enterprise-grade employee spying app masquerading as a cloud application observability dashboard.
И прям на следующий день случился сбой. Какое интересное совпадение.
The Telegraph
Holidays in chaos after global IT meltdown
Hundreds of thousands of people have had their foreign summer holidays thrown into jeopardy by a global IT outage that caused chaos at British airports on Friday.
Mark Twain: Truth is stranger than fiction, but it is because Fiction is obliged to stick to possibilities; Truth isn't."
DCLM-7B от Apple. Натренирована на DCLM-Baseline, MMLU 63.72. Код и веса выложили
Apple выложила свою новую модель DCLM-Baseline-7B, которая натренирована на датасете DCLM-Baseline (2.5T tokens). Цель - показать, что модель, натренированная на аккуратно подготовленных данных, круто работает. никогда такого не было, и вот опять
Главным плюсом считается то, что доступен и датасет, и код, и веса модели.
https://huggingface.co/apple/DCLM-7B
https://github.com/mlfoundations/dclm
https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0
https://arxiv.org/abs/2406.11794
#datascience
Apple выложила свою новую модель DCLM-Baseline-7B, которая натренирована на датасете DCLM-Baseline (2.5T tokens). Цель - показать, что модель, натренированная на аккуратно подготовленных данных, круто работает. никогда такого не было, и вот опять
Главным плюсом считается то, что доступен и датасет, и код, и веса модели.
https://huggingface.co/apple/DCLM-7B
https://github.com/mlfoundations/dclm
https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0
https://arxiv.org/abs/2406.11794
#datascience
Forwarded from Генеративный дизайн молекулярных машин
Лектор: Никита Серов, PhD, руководитель лаборатории "Генеративный дизайн молекулярных машин"
Искусственный интеллект уже стал ключевым фактором перемен в XXI веке, о котором говорят в каждом втором новостном сюжете. Но существуют ли фундаментальные проблемы, которые могут ограничить развитие современных технологий ИИ в ближайшем будущем? На этой лекции вы узнаете, как квантовые эффекты способны перевернуть с ног на голову самые базовые идеи машинного обучения и произвести революцию в области ИИ.
Описание лекции:
Эта лекция предоставит уникальную возможность заглянуть за горизонт текущих технологий ИИ и понять, как квантовые вычисления могут кардинально изменить правила игры. Никита Серов, PhD, руководитель лаборатории "Генеративный дизайн молекулярных машин", как человек со знанием квантовой химии и ИИ, взял на себя задачу структурировать основные достижения в этой области и выделил плюсы и минусы новой технологии.
- Какие ограничения существуют у современных методов машинного обучения?
- Как квантовые эффекты могут преодолеть эти ограничения?
- Какие перспективы открываются перед ИИ благодаря квантовым вычислениям?
- Примеры реальных приложений квантового машинного обучения в химии и материаловедении.
👩🔬👨🔬Для кого подойдет эта лекция:
Лекция будет интересна всем любителям ИИ, владеющим английским языком. Входных требований нет, однако для более глубокого понимания материала полезно иметь базовые знания в области линейной алгебры и квантовой механики.
🌐 Эта лекция станет первой в серии "The era after AI we know", где мы будем обсуждать будущее ИИ, естественного интеллекта и нейроморфных вычислений.
🔥Не упустите шанс узнать о передовых разработках и обсудить будущие перспективы.
Дата и время проведения: 26 июля, 17:00
Место проведения: университет ИТМО, Ломоносова 9, аудитория 1303/8 Медиацентр
❗️Язык лекции: английский ❗️
⚡️ Регистрация по ссылке ⚡️
Мы ждем вас на нашей лекции!
🖥 Также будет вестись трансляция и запись лекции. Чтобы не пропустить - подписывайтесь на телеграм-канал лаборатории.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from (sci)Berloga Всех Наук и Технологий
🚀 Если Вам интересно машинное обучение и/или математика - приглашаем Вас принять участие в проекте по применению методов МЛ/RL к теории групп/графов Кэли - напишите @alexander_v_c - если хотите принять участие, а также заходите на вводный вебинар (знаний теории групп не требуется):
👨🔬 Александр Червов (к.ф.-м.н) "Методы МЛ в теории групп - введение и обзор достигнутого"
⌚️ Понедельник 22 июля, 18.00 (по Москве)
Методы машинного обучения могут быть применены к ряду классических задач теории групп - разложение элемента по образующим, оценки диаметра. Мы приглашаем принять всех участие в данном проекте. Предварительное требование - знание Питона и наличие нескольких свободных часов в неделю. Если вы хотите улучшить свои знания по МЛ/RL и внести вклад в развитие науки - это отличный шанс .
В данном докладе мы простым языком объясним формулировки основных задач, и как задачи теории групп переводятся на язык машинного обучения. Предварительных знаний не требуется. Также, мы дадим обзор уже достигнутых результатов - в частности для группы порядка 4*10^19 (Rubik cube) нам уже удается находить решение задачи за минуты , а не 40 часов ГПУ как было в предыдущей работе "DeepCube".
План доклада:
1 Переформулировка основной задачи на простом языке матриц
2 Матрицы перестановок и группы типа кубика Рубика (см. ноутбук "Visualize allowed moves": https://www.kaggle.com/code/marksix/visualize-allowed-moves )
3 Графы Кэли и переформулировка основной задачи как поиск пути на графе
4 Случайные блуждания по графам - создание трейн сета для МЛ-модели
5 Подход к решению задач теории групп через машинное обучение. Оценка дистанции до цели через МЛ-модель и проблема наличия множественных локальных минимумов у этой оценки
6 Beam search. (Один из вариантов борьбы с застреваниями в локальных минимумах)
7 Бейзлайн реализация: МЛ+ Beam search - ноутбук: https://www.kaggle.com/code/alexandervc/baseline-1-for-permutations - решение кубика Рубика за пару минут
8 Cледующие шаги: RL-часть, улучшение нейросеток, улучшение трейн сета, улучшение beam search
Добавляйтесь в группу проекта: https://www.group-telegram.com/sberlogasci/10989 и пишите @alexander_v_c - если Вам интересно !
PS
См. также предыдущий вводный доклад:
https://www.group-telegram.com/sberlogasci/10989/15283 "Введение в методы поиска короткого пути на больших графах" (Кирилл Хоружий )
Zoom link will be in @sberlogabig just before start. Video records: https://www.youtube.com/c/SciBerloga - subscribe !
👨🔬 Александр Червов (к.ф.-м.н) "Методы МЛ в теории групп - введение и обзор достигнутого"
⌚️ Понедельник 22 июля, 18.00 (по Москве)
Методы машинного обучения могут быть применены к ряду классических задач теории групп - разложение элемента по образующим, оценки диаметра. Мы приглашаем принять всех участие в данном проекте. Предварительное требование - знание Питона и наличие нескольких свободных часов в неделю. Если вы хотите улучшить свои знания по МЛ/RL и внести вклад в развитие науки - это отличный шанс .
В данном докладе мы простым языком объясним формулировки основных задач, и как задачи теории групп переводятся на язык машинного обучения. Предварительных знаний не требуется. Также, мы дадим обзор уже достигнутых результатов - в частности для группы порядка 4*10^19 (Rubik cube) нам уже удается находить решение задачи за минуты , а не 40 часов ГПУ как было в предыдущей работе "DeepCube".
План доклада:
1 Переформулировка основной задачи на простом языке матриц
2 Матрицы перестановок и группы типа кубика Рубика (см. ноутбук "Visualize allowed moves": https://www.kaggle.com/code/marksix/visualize-allowed-moves )
3 Графы Кэли и переформулировка основной задачи как поиск пути на графе
4 Случайные блуждания по графам - создание трейн сета для МЛ-модели
5 Подход к решению задач теории групп через машинное обучение. Оценка дистанции до цели через МЛ-модель и проблема наличия множественных локальных минимумов у этой оценки
6 Beam search. (Один из вариантов борьбы с застреваниями в локальных минимумах)
7 Бейзлайн реализация: МЛ+ Beam search - ноутбук: https://www.kaggle.com/code/alexandervc/baseline-1-for-permutations - решение кубика Рубика за пару минут
8 Cледующие шаги: RL-часть, улучшение нейросеток, улучшение трейн сета, улучшение beam search
Добавляйтесь в группу проекта: https://www.group-telegram.com/sberlogasci/10989 и пишите @alexander_v_c - если Вам интересно !
PS
См. также предыдущий вводный доклад:
https://www.group-telegram.com/sberlogasci/10989/15283 "Введение в методы поиска короткого пути на больших графах" (Кирилл Хоружий )
Zoom link will be in @sberlogabig just before start. Video records: https://www.youtube.com/c/SciBerloga - subscribe !
RankRAG: Unifying Context Ranking with Retrieval-Augmented Generation in LLMs
Интересная статья от NVIDIA с новым подходом к RAG - делают instruction-tuning одновременно для генерации ответа и для ранжирования контекста. Добавление таких датасетов для тренировки заметно улучшает качество, при этом данных достаточно не особо много.
В экспериментах Llama3-RankRAG обходит Llama3-ChatQA-1.5 и модели GPT-4 на девяти knowledge-intensive бенчмарках и показывает сопоставимые результаты с GPT-4 на пяти медицинских наборах данных без дополнительного instruction fine-tuning на биомедицинских данных, демонстрируя отличную способность к обобщению в новых областях.
Paper link
Мои обзоры:
Personal blog
Medium
Linkedin Pulse
#paperreview
Интересная статья от NVIDIA с новым подходом к RAG - делают instruction-tuning одновременно для генерации ответа и для ранжирования контекста. Добавление таких датасетов для тренировки заметно улучшает качество, при этом данных достаточно не особо много.
В экспериментах Llama3-RankRAG обходит Llama3-ChatQA-1.5 и модели GPT-4 на девяти knowledge-intensive бенчмарках и показывает сопоставимые результаты с GPT-4 на пяти медицинских наборах данных без дополнительного instruction fine-tuning на биомедицинских данных, демонстрируя отличную способность к обобщению в новых областях.
Paper link
Мои обзоры:
Personal blog
Medium
Linkedin Pulse
#paperreview
Forwarded from Борис опять
https://ea.rna.nl/2024/05/27/when-chatgpt-summarises-it-actually-does-nothing-of-the-kind/
tldr: LLM могут сильно искажать факты при саммаризации сложных вещей вплоть до полностью противоположных выводов
tldr: LLM могут сильно искажать факты при саммаризации сложных вещей вплоть до полностью противоположных выводов
R&A IT Strategy & Architecture
When ChatGPT summarises, it actually does nothing of the kind.
One of the use cases I thought was reasonable to expect from ChatGPT and Friends (LLMs) was summarising. It turns out I was wrong. What ChatGPT isn’t summarising at all, it only looks like it…
Yet another sample size calculator
Я сегодня увидел на reddit неплохой тред с примером расчёта sample size для A/B тестов. Думаю, что если считаешь для себя, то настолько накрученные штуки не нужны, но показать stakeholders - самое то.
Сам калькулятор можно пощупать тут.
#datascience
Я сегодня увидел на reddit неплохой тред с примером расчёта sample size для A/B тестов. Думаю, что если считаешь для себя, то настолько накрученные штуки не нужны, но показать stakeholders - самое то.
Сам калькулятор можно пощупать тут.
#datascience
Forwarded from Denis Sexy IT 🤖
Meta опубликовала новые модели Llama 3.1
https://llama.meta.com/
1) Теперь доступна модель размером в 405B, запустить у нас всех ее не получится (нужно промышленное железо) – про нее я напишу отдельно потом, как почитаю внятные тесты возможностей.
2) Помимо этого, Llama 3.1 вышла в 8B и 70B размерах, они поддерживают многоязычность и просто стали лучше в своих категориях, запускаться они смогут на том же железе где и работали прошлые версии.
Вы наверное теперь понимаете почему OpenAI показало gpt4o mini неделю назад и сделала ее настолько дешевой – скоро у нас будут очень умные модели, которые очень быстро работают на любом железе
Meta классно создает давление на OpenAI через опенсорс, Цукерберг красавчик
https://llama.meta.com/
1) Теперь доступна модель размером в 405B, запустить у нас всех ее не получится (нужно промышленное железо) – про нее я напишу отдельно потом, как почитаю внятные тесты возможностей.
2) Помимо этого, Llama 3.1 вышла в 8B и 70B размерах, они поддерживают многоязычность и просто стали лучше в своих категориях, запускаться они смогут на том же железе где и работали прошлые версии.
Вы наверное теперь понимаете почему OpenAI показало gpt4o mini неделю назад и сделала ее настолько дешевой – скоро у нас будут очень умные модели, которые очень быстро работают на любом железе
Meta классно создает давление на OpenAI через опенсорс, Цукерберг красавчик
Industry Leading, Open-Source AI | Llama by Meta
Discover Llama 4's class-leading AI models, Scout and Maverick. Experience top performance, multimodality, low costs, and unparalleled efficiency.
DataChain от DVC
Пока многие обсуждают релиз LLama 3.1, поделюсь "приземленной" новостью. DVC выпустили продукт для управления неструктурированными данными.
🤖 AI-Driven Data Curation: Local models, LLM APIs
🚀 GenAI Dataset scale: Millions and billions of files
🐍 Python-friendly: Python objects instead of JSON
Github
#datascience
Пока многие обсуждают релиз LLama 3.1, поделюсь "приземленной" новостью. DVC выпустили продукт для управления неструктурированными данными.
🤖 AI-Driven Data Curation: Local models, LLM APIs
🚀 GenAI Dataset scale: Millions and billions of files
🐍 Python-friendly: Python objects instead of JSON
Github
#datascience
GitHub
GitHub - iterative/datachain: ETL, Analytics, Versioning for Unstructured Data
ETL, Analytics, Versioning for Unstructured Data. Contribute to iterative/datachain development by creating an account on GitHub.
IT-пикник. Благотворительность для Карельского регистра доноров костного мозга
Ко мне тут обратились с неожиданной просьбой - распространить информацию об IT-ивенте с возможностью сделать пожертвование для помощи людям.
В Москве 17 августа пройдёт IT-пикник в Коломенском. Это семейное IT мероприятие - будут лекции, мастер-классы, воркшопы, музыка. А также доклады от технических людей из топовых компаний. Посещение возможно по пожертвованию от 1к рублей в один из 10 благотворительных фондов, и Карельский регистр - один их них. Он занимается помощью пациентам с лейкемией и пожертвованные деньги пойдут на на оплату обследования доноров, каждый из которых может спасти жизнь.
При регистрации на сайте пикника вам прийдёт ссылка на пожертвования, и там можно будет выбрать этот фонд. Сам я посетить ивент не смогу, поэтому пожертвование сделал просто напрямую по этой ссылке.
Фестиваль выглядит интересным, и дополнительно есть возможность помочь людям, так что рекомендую поучаствовать.
#life #datascience
Ко мне тут обратились с неожиданной просьбой - распространить информацию об IT-ивенте с возможностью сделать пожертвование для помощи людям.
В Москве 17 августа пройдёт IT-пикник в Коломенском. Это семейное IT мероприятие - будут лекции, мастер-классы, воркшопы, музыка. А также доклады от технических людей из топовых компаний. Посещение возможно по пожертвованию от 1к рублей в один из 10 благотворительных фондов, и Карельский регистр - один их них. Он занимается помощью пациентам с лейкемией и пожертвованные деньги пойдут на на оплату обследования доноров, каждый из которых может спасти жизнь.
При регистрации на сайте пикника вам прийдёт ссылка на пожертвования, и там можно будет выбрать этот фонд. Сам я посетить ивент не смогу, поэтому пожертвование сделал просто напрямую по этой ссылке.
Фестиваль выглядит интересным, и дополнительно есть возможность помочь людям, так что рекомендую поучаствовать.
#life #datascience
it-picnic.ru
ИТ-пикник 2025 — летний фестиваль для ИТ-специалистов и их близких
Лекции, интерактивы, детские зоны, музыка и яркий летний день. Ждем вас на ИТ-пикнике 16 августа в Коломенском. Подписывайтесь на телеграм-канал, чтобы не пропустить регистрацию