Контекст — это ключевой элемент, позволяющий понять глубинные смыслы данных, их взаимосвязь и значимость.
Почему контекст важен?
Избежание манипуляций. Манипулятивные данные часто вырываются из контекста, чтобы исказить их значение. Например, статистика может быть представлена таким образом, чтобы выгодно подчеркнуть определённый аспект проблемы, игнорируя другие.
Понимание условий формирования данных. Каждая информация существует в рамках своей системы условий — социальной, экономической, политической или исторической. Без учёта этих условий невозможно понять, что именно означают данные и как они могут быть использованы.
Историческая перспектива
Любое событие или явление связано с историей. Анализируйте, как развивалась ситуация, чтобы понять её предысторию и причины. Например, экономические показатели текущего года имеют смысл только в сравнении с предыдущими периодами и трендами.
Социально-экономические факторы
Рассматривайте, в каких условиях собиралась информация. Например:
- Уровень доверия к источникам в обществе.
- Экономическое состояние региона или страны.
- Политические интересы, которые могут влиять на интерпретацию данных.
- Географические и культурные особенности. Различия в восприятии одних и тех же данных между странами или даже регионами могут быть значительными.
Например, восприятие уровня безработицы может зависеть от исторически сложившихся норм занятости и социальной поддержки.
Цели и мотивы
Учитывайте цели, которые могут преследовать авторы данных:
- Рекламный или PR-контент может акцентировать позитивные моменты и игнорировать негативные.
- Политические заявления часто адаптируются к интересам целевой аудитории.
Информационная среда
Важен анализ того, как распространялась информация:
- Были ли использованы социальные сети?
- Какие средства массовой информации поддерживали распространение?
- Какие реакции вызвала информация?
Сравнительный анализ
Сравнивайте данные из разных источников, чтобы выявить возможные расхождения. Это поможет увидеть, где информация могла быть искажена.
Анализ тональности
Изучите язык, которым представлены данные. Нейтральное ли это изложение или эмоционально окрашенное? Например, использование терминов вроде «катастрофический рост» вместо «значительное увеличение» может сигнализировать о предвзятости.
Работа с первоисточниками
Обратитесь к оригинальным данным, на которых основаны отчёты или статьи. Это позволяет избежать интерпретаций и узнать, как информация выглядела изначально.
Социальный и политический анализ
Рассмотрите, какие группы поддерживали или критиковали опубликованные данные. Это может указать на мотивы и скрытые интересы.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Korenev AI - GPT в тапочках🩴
Сейчас сегментация делается "на глазок" — выделяются 5-10 групп клиентов и проводится дальнейшая работа с ними. Но представляете, насколько круче будет, если будет выделиться 100-500 сегментов и к каждому будет свой особенный подход? Говорить с каждым на его языке, цеплять за то, что действительно важно именно для него.
Пробовали раньше освоить Power BI для этих целей — не пошло: сложно и не хватает времени на изучение.
Я открыл открыл для себя платформу Kaggle. Там постоянно проходят соревнования по машинному обучению с денежными призами. И лучшие специалисты выкладывают свои решения в открытый доступ!
Для нас это отличная возможность перенять готовые идеи и адаптировать их под свои задачи. В общем, велосипед не изобретаем, а катаемся на созданном ранее
Please open Telegram to view this post
VIEW IN TELEGRAM
Статья Магдалены Клопотт анализирует проблемы страхования грузов, перевозимых через зоны вооруженных конфликтов, используя метод анализа вторичных данных (desk research). Фокус исследования направлен на анализ стандартных положений страховых полисов от рисков войны и забастовок, выявление пробелов в покрытии и потенциальных решений для улучшения страховых механизмов.
Исследовательский вопрос: Какие риски связаны со страхованием грузов в зонах конфликта, и какие пробелы существуют в стандартном покрытии страховых полисов?
Методология:
В качестве методологии используется desk research – качественный анализ уже существующих данных. Этот подход выбран в связи с ограниченностью ресурсов и необходимостью оперативного получения результатов, что характерно для кабинетных исследований. Основной акцент сделан на анализе вторичных источников информации, позволяющих составить целостную картину исследуемой проблематики.
В качестве источников использовались публикации авторитетных организаций в сфере страхования и логистики, включая отчеты и аналитические материалы от таких организаций, как Council on Foreign Relations (CFR), Lloyd’s List Intelligence, UNCTAD (Конференция ООН по торговле и развитию), Institute of London Underwriters, International Underwriting Association of London (IUA), S&P Global, а также данные от Bloomberg и других ведущих мировых изданий.
Информация систематизирована по кластерам: на основе информации о географических зонах конфликтов, распространенных рисках (пиратство, терроризм, государственное насилие), стандартных условиях страхования (Институтские Клаузулы по Грузам, ICC), специализированных страховых положениях (IWC и ISC), и механизмах оценки рисков (JCC Global Cargo Watchlist).
Проведен сравнительный анализ стандартных страховых клаузул (ICC) и специализированных положений (IWC и ISC), выявляющий существующие пробелы в покрытии.
Проанализированы особенности страхования грузов в разных видах транспорта (морской, воздушный, наземный) и влияние географических факторов (зона конфликта, торговые пути). Изучены механизмы установления страховых тарифов и наценок, связанных с рисками войны и забастовок, а также влияние динамики конфликтов на стоимость страхования.
Особое внимание уделено анализу проекта "Unity" как примера инновационного подхода к страхованию грузов в зоне конфликта.
Данные от международных организаций (ООН, Lloyd's и т.д.), регулирующих органов и правительственных учреждений.
Статьи, обзоры и аналитические материалы от ведущих экспертов в области страхования и логистики.
Информация о страховых тарифах, премиях и надбавках, а также общая экономическая ситуация в зоне конфликта.
Стандартные страховые полисы не охватывают все риски, связанные с перевозкой грузов в зонах конфликта. Существуют значительные пробелы в покрытии, особенно в отношении наземных рисков. Специализированные страховые положения (IWC и ISC) частично компенсируют эти пробелы, но не являются универсальным решением.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DH Center ITMO University
>>> опен-колл на конференцию
«Актуальные ошибки гуманитарных наук»
27–29 марта проведём вторую конференцию DH-центра. В этом году поговорим о роли ошибок в исследованиях, науках и проектах. Приглашаем всех, кто совершал и планирует совершать ошибки, достойные обсуждения.
{ концепция }
Необсуждённые ошибки ложатся в основу алгоритмической рациональности, а она становится инфраструктурой для решения новых задач. Порой исследователи примечают конкретные неточности (bias) или галлюцинации, но обходят вниманием системные недочёты.
Как выявить ошибку? Из какой позиции человек может спорить с машиной, если она сформирована на основе экспертизы или «объективных» данных? Как без возможности находить ошибки в теории, можно обнаружить их в данных или методе? И обречён ли учёный, сторонящийся обнаружения и исправления ошибок, на вечное применение кем-то изобретённых подходов?
Эти вопросы могут получить ответы, если мы обратимся к ошибкам. Этой конференцией мы хотим попробовать сделать разговор об ошибках — задачей академической дискуссии.
{ темы }
— Лишняя дисциплина
— Доверяй, но проверяй
— Ошибки внедрения
— Различия ошибок человека и машины
— Право на ошибку
— Ошибка как результат и достоинство
{ детали }
Части программы будут соответствовать одному из четырёх идолов — так Фрэнсис Бэкон называл препятствия к познанию истины. Мы интерпретируем его идолов, обращаясь к ним в рамках художественного приёма, чтобы определить ситуации разговора об ошибках:
> идолы рода: ошибки, связанные с происхождением знания — науками и канонами
> идолы пещеры: ошибки «здравого смысла», происходящие от доверия обыденному знанию
> идолы рынка: ошибочные смешения понятий, методов и подходов
> идолы театра: ошибки моделирования и представления
{ участие }
Ждём доклады, дискуссионные панели, постеры, экспериментальные формы. Подробности о форматах и темах в документе.
Отправляйте заявку на почту [email protected]
шаблон заявки
тема письма: заявка на Актуальные ошибки гуманитарных наук
дедлайн 17 февраля
🤍 🤍 🤍 🤍 🤍
«Актуальные ошибки гуманитарных наук»
27–29 марта проведём вторую конференцию DH-центра. В этом году поговорим о роли ошибок в исследованиях, науках и проектах. Приглашаем всех, кто совершал и планирует совершать ошибки, достойные обсуждения.
{ концепция }
Необсуждённые ошибки ложатся в основу алгоритмической рациональности, а она становится инфраструктурой для решения новых задач. Порой исследователи примечают конкретные неточности (bias) или галлюцинации, но обходят вниманием системные недочёты.
Как выявить ошибку? Из какой позиции человек может спорить с машиной, если она сформирована на основе экспертизы или «объективных» данных? Как без возможности находить ошибки в теории, можно обнаружить их в данных или методе? И обречён ли учёный, сторонящийся обнаружения и исправления ошибок, на вечное применение кем-то изобретённых подходов?
Эти вопросы могут получить ответы, если мы обратимся к ошибкам. Этой конференцией мы хотим попробовать сделать разговор об ошибках — задачей академической дискуссии.
{ темы }
— Лишняя дисциплина
— Доверяй, но проверяй
— Ошибки внедрения
— Различия ошибок человека и машины
— Право на ошибку
— Ошибка как результат и достоинство
{ детали }
Части программы будут соответствовать одному из четырёх идолов — так Фрэнсис Бэкон называл препятствия к познанию истины. Мы интерпретируем его идолов, обращаясь к ним в рамках художественного приёма, чтобы определить ситуации разговора об ошибках:
> идолы рода: ошибки, связанные с происхождением знания — науками и канонами
> идолы пещеры: ошибки «здравого смысла», происходящие от доверия обыденному знанию
> идолы рынка: ошибочные смешения понятий, методов и подходов
> идолы театра: ошибки моделирования и представления
{ участие }
Ждём доклады, дискуссионные панели, постеры, экспериментальные формы. Подробности о форматах и темах в документе.
Отправляйте заявку на почту [email protected]
шаблон заявки
тема письма: заявка на Актуальные ошибки гуманитарных наук
дедлайн 17 февраля
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ-ансамбли для автоматической генерации аннотированных библиографий: новый уровень точности и эффективности
Генерация аннотированных библиографий – трудоемкий и требующий значительных экспертных знаний процесс. В новой работе Серхио Бермехо предлагается инновационный подход к автоматизации этой задачи с использованием ансамблей больших языковых моделей (LLM). Вместо использования одной LLM, Бермехо предлагает трехуровневую архитектуру, в которой несколько LLM работают совместно, играя разные роли: генерация текста, оценка и суммирование.
Как это работает?
Генерация: Несколько LLM с различными гиперпараметрами (температура, top-k, top-p) генерируют разнообразные варианты аннотаций для одной и той же статьи. Это создаёт разнообразие вывода, что крайне важно для повышения качества итогового результата.
Оценка: Другая LLM выступает в роли "судьи", оценивая сгенерированные аннотации по таким критериям, как релевантность, точность и связность. Этот подход объективнее, чем использование традиционных метрик качества текста.
Суммирование: Наконец, третья LLM объединяет и уточняет лучшие аннотации, выбранные "судьей", используя методы суммирования и удаления избыточной информации.
Результаты впечатляют:
Эксперименты показали значительное улучшение качества аннотаций, сгенерированных ансамблем LLM, по сравнению с результатами отдельных моделей. В частности, метод "Top M Responses" показал улучшение читаемости на 38% и сокращение избыточности контента на 51%. Это демонстрирует эффективность использования ансамблей LLM для автоматизации сложных задач, требующих как генерации текста, так и критической оценки информации.
#ИИ_для_кабинетных_исследований
Генерация аннотированных библиографий – трудоемкий и требующий значительных экспертных знаний процесс. В новой работе Серхио Бермехо предлагается инновационный подход к автоматизации этой задачи с использованием ансамблей больших языковых моделей (LLM). Вместо использования одной LLM, Бермехо предлагает трехуровневую архитектуру, в которой несколько LLM работают совместно, играя разные роли: генерация текста, оценка и суммирование.
Как это работает?
Генерация: Несколько LLM с различными гиперпараметрами (температура, top-k, top-p) генерируют разнообразные варианты аннотаций для одной и той же статьи. Это создаёт разнообразие вывода, что крайне важно для повышения качества итогового результата.
Оценка: Другая LLM выступает в роли "судьи", оценивая сгенерированные аннотации по таким критериям, как релевантность, точность и связность. Этот подход объективнее, чем использование традиционных метрик качества текста.
Суммирование: Наконец, третья LLM объединяет и уточняет лучшие аннотации, выбранные "судьей", используя методы суммирования и удаления избыточной информации.
Результаты впечатляют:
Эксперименты показали значительное улучшение качества аннотаций, сгенерированных ансамблем LLM, по сравнению с результатами отдельных моделей. В частности, метод "Top M Responses" показал улучшение читаемости на 38% и сокращение избыточности контента на 51%. Это демонстрирует эффективность использования ансамблей LLM для автоматизации сложных задач, требующих как генерации текста, так и критической оценки информации.
#ИИ_для_кабинетных_исследований
arXiv.org
Enhancing Annotated Bibliography Generation with LLM Ensembles
This work proposes a novel approach to enhancing annotated bibliography generation through Large Language Model (LLM) ensembles. In particular, multiple LLMs in different roles -- controllable...
Анализ конкурентной среды для AI-стартапа DataVision Italia: рубрика "Как было проведено это исследование"
✔️ Исследовательский вопрос: Кто является основными конкурентами DataVision Italia, каковы их сильные и слабые стороны, и как DataVision Italia может позиционировать себя на рынке, чтобы добиться конкурентного преимущества?
💬 Методология
Анализ конкурентной среды проводился в рамках кабинетного исследования (desk research), с использованием качественных методов анализа вторичных данных. Особое внимание уделялось изучению прямых и косвенных конкурентов.
⭕️ Этап 1: Определение конкурентного поля:
В первую очередь, были выделены ключевые игроки на итальянском рынке, предлагающие решения в области AI, связанные с:
- Обработкой изображений и компьютерным зрением.
- Разработкой AI-платформ для бизнеса.
- Автоматизацией бизнес-процессов с использованием AI.
⭕️ Этап 2: Сбор данных о конкурентах
Информация о конкурентах собиралась из различных источников:
- Официальные сайты компаний: Анализ сайтов конкурентов позволил получить информацию об их продуктах, услугах, целевой аудитории, географическом охвате и истории развития.
- Отраслевые отчеты и публикации: Изучение аналитических материалов, публикуемых отраслевыми ассоциациями и консалтинговыми компаниями, позволило оценить доли рынка основных игроков, тенденции развития рынка и прогнозы на будущее.
- Новости и пресс-релизы: Анализ новостных сообщений и пресс-релизов конкурентов позволил отслеживать их активность на рынке, новые продукты и партнерства.
- Социальные сети: Мониторинг активности конкурентов в социальных сетях позволил оценить их маркетинговые стратегии и взаимодействие с целевой аудиторией.
⭕️ Этап 3: SWOT-анализ конкурентов
Для каждого ключевого конкурента был проведен SWOT-анализ, который позволил систематизировать информацию о его сильных и слабых сторонах, а также о возможностях и угрозах, связанных с его деятельностью. Особое внимание уделялось таким факторам, как:
- Технологические возможности: Наличие инновационных технологий, уровень развития продуктов и услуг.
- Рыночная позиция: Доля рынка, репутация бренда, лояльность клиентов.
- Финансовые показатели: Объемы продаж, прибыльность, инвестиции.
- Управленческая команда: Опыт и квалификация руководства.
💬 Источники данных
- Сайты конкурентов: Vedrai, Indigo.ai, Aiko, и другие.
- Отраслевые отчеты: Anitec-Assinform, Osservatorio Digital Innovation.
- Публикации в СМИ: Forbes, Harvard Business Review, La Repubblica.
- Социальные сети: LinkedIn, Twitter, Facebook.
- Базы данных: Crunchbase.
На основе проведенного анализа были выявлены ключевые факторы дифференциации DataVision Italia и ее продукта AutoCrash, что позволило разработать эффективную стратегию позиционирования на рынке.
Анализ конкурентной среды проводился в рамках кабинетного исследования (desk research), с использованием качественных методов анализа вторичных данных. Особое внимание уделялось изучению прямых и косвенных конкурентов.
В первую очередь, были выделены ключевые игроки на итальянском рынке, предлагающие решения в области AI, связанные с:
- Обработкой изображений и компьютерным зрением.
- Разработкой AI-платформ для бизнеса.
- Автоматизацией бизнес-процессов с использованием AI.
Информация о конкурентах собиралась из различных источников:
- Официальные сайты компаний: Анализ сайтов конкурентов позволил получить информацию об их продуктах, услугах, целевой аудитории, географическом охвате и истории развития.
- Отраслевые отчеты и публикации: Изучение аналитических материалов, публикуемых отраслевыми ассоциациями и консалтинговыми компаниями, позволило оценить доли рынка основных игроков, тенденции развития рынка и прогнозы на будущее.
- Новости и пресс-релизы: Анализ новостных сообщений и пресс-релизов конкурентов позволил отслеживать их активность на рынке, новые продукты и партнерства.
- Социальные сети: Мониторинг активности конкурентов в социальных сетях позволил оценить их маркетинговые стратегии и взаимодействие с целевой аудиторией.
Для каждого ключевого конкурента был проведен SWOT-анализ, который позволил систематизировать информацию о его сильных и слабых сторонах, а также о возможностях и угрозах, связанных с его деятельностью. Особое внимание уделялось таким факторам, как:
- Технологические возможности: Наличие инновационных технологий, уровень развития продуктов и услуг.
- Рыночная позиция: Доля рынка, репутация бренда, лояльность клиентов.
- Финансовые показатели: Объемы продаж, прибыльность, инвестиции.
- Управленческая команда: Опыт и квалификация руководства.
- Сайты конкурентов: Vedrai, Indigo.ai, Aiko, и другие.
- Отраслевые отчеты: Anitec-Assinform, Osservatorio Digital Innovation.
- Публикации в СМИ: Forbes, Harvard Business Review, La Repubblica.
- Социальные сети: LinkedIn, Twitter, Facebook.
- Базы данных: Crunchbase.
На основе проведенного анализа были выявлены ключевые факторы дифференциации DataVision Italia и ее продукта AutoCrash, что позволило разработать эффективную стратегию позиционирования на рынке.
Please open Telegram to view this post
VIEW IN TELEGRAM
какая-то библиотека pinned «📢 Моя книга о кабинетных исследованиях Коллеги, хочу рассказать о проекте, который для меня очень важен. Это книга, где я собрала всё, что узнала и проверила на практике за годы работы в кабинетных исследованиях. 🐈⬛ Эта книга — результат шести лет работы…»
ИИ для социальных исследований: новые подходы к качественным и количественным методам
В статье "Generative AI for Social Research: Going Native with Artificial Intelligence", опубликованной в Sociologica, Pilati, Munk и Venturini представляют обзор новых способов применения генеративного ИИ в социальных науках. Авторы не ограничиваются описанием возможностей, а акцентируют внимание на методологических аспектах, подчеркивая сближение качественных и количественных методов и переход к "нативно-цифровым" подходам.
Статья рассматривает два основных направления использования генеративного ИИ в социальных исследованиях:
Сглаживание границы между качественными и количественными методами: LLM (большие языковые модели) демонстрируют эффективность как в качественных задачах (чистка данных, аннотация, анализ нарративов), так и в количественных (создание опросников, анализ статистических моделей). Это разрушает традиционное разделение методов и открывает новые возможности для исследователей.
Переход к "нативно-цифровым" методам: Авторы призывают к использованию ИИ не просто как инструмента для обработки существующих данных, но и как метода генерации новых данных и анализа цифровых инфраструктур. Это предполагает более глубокое понимание того, как ИИ "видит" мир и как его модели отражают культурные и социальные контексты.
Примеры использования генеративного ИИ:
Качественные исследования: LLM используются для очистки транскрипций интервью, аннотации данных, обнаружения сюжетов в литературных текстах, проведения полуструктурированных интервью и анализа мультимодальных данных.
Количественные исследования: LLM применяются для создания адаптивных опросников, улучшения точности статистических моделей и автоматизации рутинных задач.
Анализ культурных и социальных контекстов: Исследования фокусируются на выявлении культурных предвзятостей LLM, сравнении их ответов с ответами людей из разных культурных групп и анализе внутренних механизмов работы моделей.
Статья призывает к осмысленному использованию генеративного ИИ в социальных исследованиях, подчеркивая необходимость развития новых методологических подходов и критического анализа результатов. Авторы предлагают рассматривать ИИ не только как инструмент, но и как объект исследования, что позволит глубоко понять его возможности и ограничения. Дальнейшие исследования в этом направлении обещают значительный прогресс в социальных науках.
В статье "Generative AI for Social Research: Going Native with Artificial Intelligence", опубликованной в Sociologica, Pilati, Munk и Venturini представляют обзор новых способов применения генеративного ИИ в социальных науках. Авторы не ограничиваются описанием возможностей, а акцентируют внимание на методологических аспектах, подчеркивая сближение качественных и количественных методов и переход к "нативно-цифровым" подходам.
Статья рассматривает два основных направления использования генеративного ИИ в социальных исследованиях:
Сглаживание границы между качественными и количественными методами: LLM (большие языковые модели) демонстрируют эффективность как в качественных задачах (чистка данных, аннотация, анализ нарративов), так и в количественных (создание опросников, анализ статистических моделей). Это разрушает традиционное разделение методов и открывает новые возможности для исследователей.
Переход к "нативно-цифровым" методам: Авторы призывают к использованию ИИ не просто как инструмента для обработки существующих данных, но и как метода генерации новых данных и анализа цифровых инфраструктур. Это предполагает более глубокое понимание того, как ИИ "видит" мир и как его модели отражают культурные и социальные контексты.
Примеры использования генеративного ИИ:
Качественные исследования: LLM используются для очистки транскрипций интервью, аннотации данных, обнаружения сюжетов в литературных текстах, проведения полуструктурированных интервью и анализа мультимодальных данных.
Количественные исследования: LLM применяются для создания адаптивных опросников, улучшения точности статистических моделей и автоматизации рутинных задач.
Анализ культурных и социальных контекстов: Исследования фокусируются на выявлении культурных предвзятостей LLM, сравнении их ответов с ответами людей из разных культурных групп и анализе внутренних механизмов работы моделей.
Статья призывает к осмысленному использованию генеративного ИИ в социальных исследованиях, подчеркивая необходимость развития новых методологических подходов и критического анализа результатов. Авторы предлагают рассматривать ИИ не только как инструмент, но и как объект исследования, что позволит глубоко понять его возможности и ограничения. Дальнейшие исследования в этом направлении обещают значительный прогресс в социальных науках.
Меня часто просят поделиться секретами тайм-менеджмента для кабинетной работы, да и вообще. Проблема в том, что я не могу четко сформулировать свои практики. Я просто… делаю. Поэтому мне сложно писать такие посты и даже рассказывать об этом. Если есть силы — делаю. Если серотонин сегодня решил не вырабатываться — не делаю. Как будто это происходит помимо меня.
Да, я ленюсь. Часто пропускаю зал, бросила английский из-за нехватки сил. Но при этом успеваю выполнять рабочие задачи (за 8 часов в день было бы странно не успевать) и вести этот блог (спасибо ИИ, с ним не так много мороки).
Секрет, наверное, в том, что я всё планирую. Иногда это причина, по которой я злюсь на бойфренда, у которого горизонт планирования покороче (прости, любимый, я работаю над собой!).
Вот и весь мой "тайм-менеджмент". Может, он и странный, но мне работает.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сетевой анализ для поиска научной литературы: обзор простых и бесплатных сервисов
В этом посте я расскажу о сетевом анализе в научной библиографии и поделюсь простыми и бесплатными инструментами для его проведения.
Что такое сетевой анализ?
Сетевой анализ в библиографии — это метод, который позволяет исследовать связи между научными публикациями. Он основан на анализе цитирований: кто кого цитировал, какие статьи похожи по ключевым словам и цитированиям.
〰️ Инструменты для сетевого анализа:
✔️ Google Scholar: Да, в Google Академии уже есть элементы сетевого анализа. Функция "Похожие статьи" основана на семантическом анализе, то есть подбирает статьи, похожие по ключевым словам и цитированиям.
✔️ Inciteful: Мой любимый инструмент с интуитивно понятным интерфейсом. Позволяет провести сетевой анализ одной статьи или сравнить две статьи между собой.
🟣 Анализ одной статьи: Показывает, кто цитировал статью, на какие статьи она ссылается, а также предлагает похожие статьи, статьи с обзорами и наиболее влиятельные статьи в этой области.
🟣 Сравнение двух статей: Позволяет увидеть, как связаны две статьи и насколько близко они расположены в сети цитирований.
✔️ ResearchRabbit: Похож на Inciteful, но с интеграцией с Zotero. Позволяет строить графы цитирований, находить похожие работы и добавлять их в свою библиотеку Zotero.
✔️ Litmaps: Позволяет проводить сетевой анализ по названию статьи или ключевым словам. Показывает цитирования, референсы (библиографический список) и связанные статьи на основе семантического анализа.
⭐️ Как использовать сетевой анализ?
Сетевой анализ — отличное дополнение к поиску по ключевым словам. Особенно полезен, когда у вас есть одна релевантная статья, и вы хотите найти похожие публикации.
В этом посте я расскажу о сетевом анализе в научной библиографии и поделюсь простыми и бесплатными инструментами для его проведения.
Что такое сетевой анализ?
Сетевой анализ в библиографии — это метод, который позволяет исследовать связи между научными публикациями. Он основан на анализе цитирований: кто кого цитировал, какие статьи похожи по ключевым словам и цитированиям.
Сетевой анализ — отличное дополнение к поиску по ключевым словам. Особенно полезен, когда у вас есть одна релевантная статья, и вы хотите найти похожие публикации.
Please open Telegram to view this post
VIEW IN TELEGRAM
Матрицы – не просто таблички, а мощный инструмент для визуализации связей между разными факторами и понимания их влияния друг на друга. Они пригодятся для анализа конкурентов, оценки рисков, принятия стратегических решений и многого другого.
Важно помнить: матрицы – это инструмент, а не самоцель. Главное – не просто заполнить ячейки, а проанализировать данные и найти инсайты для принятия обоснованных решений.
Это отрывок из моей книги про кабинетные исследования в библиотеке. Подробнее о методике тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
какая-то библиотека
📢 Моя книга о кабинетных исследованиях
Коллеги, хочу рассказать о проекте, который для меня очень важен. Это книга, где я собрала всё, что узнала и проверила на практике за годы работы в кабинетных исследованиях.
🐈⬛Эта книга — результат шести лет работы…
Коллеги, хочу рассказать о проекте, который для меня очень важен. Это книга, где я собрала всё, что узнала и проверила на практике за годы работы в кабинетных исследованиях.
🐈⬛Эта книга — результат шести лет работы…
Forwarded from Dsight
📢 Книга о кабинетных исследованиях от ex-аналитика Dsight
Мы всегда радуемся успехам наших бывших сотрудников, и как раз есть отличный повод. Это книга, которую написала Елена Каганова, в прошлом — старший аналитик Dsight.
🐈⬛ Эта книга — результат шести лет работы, в течение которых Елена училась искать данные в самых неожиданных местах, систематизировать их так, чтобы ничего не терялось, и адаптироваться к разным задачам, используя доступные цифровые средства.
🔤 О чем книга?
Это сборник советов, историй и практических кейсов.
🟣 Как искать, систематизировать и сохранять данные так, чтобы не тратить время зря.
🟣 Чек-листы и пошаговые инструкции — всё, что помогает на практике.
🟣 Кейсы из практики — реальные истории по поиску данных и их анализу.
⭐️ Для кого книга?
Для студентов, исследователей, аналитиков, консалтеров — для всех, кто регулярно работает с информацией: ищет её, сохраняет и использует в работе.
❗️ Важно, что эта книга обновляемая. В нее будут добавляться новые главы с примерами из текущей практики Елены и методами, которые помогают ее каждый день.
Доступ к книге тут.💜
Огонь? Огонь! 🔥
Мы всегда радуемся успехам наших бывших сотрудников, и как раз есть отличный повод. Это книга, которую написала Елена Каганова, в прошлом — старший аналитик Dsight.
Это сборник советов, историй и практических кейсов.
Для студентов, исследователей, аналитиков, консалтеров — для всех, кто регулярно работает с информацией: ищет её, сохраняет и использует в работе.
Доступ к книге тут.💜
Огонь? Огонь! 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
boosty.to
Книга "Кабинетные исследования: вводный курс" - каганова: деск ричёрч
Эта книга, эта методичка, - сборник моих советов, историй и наблюдений о том, как проводить кабинетные исследования.
Вторичный анализ данных: новый взгляд на старые данные
В эпоху больших данных, когда объемы собранной и заархивированной информации растут экспоненциально, вторичный анализ данных становится все более актуальным инструментом для исследователей. Что это такое? Вторичный анализ – это использование данных, собранных кем-то другим для другой цели, для ответа на новые исследовательские вопросы.
Почему это важно?
Экономия ресурсов: Позволяет проводить исследования с ограниченными временными и финансовыми ресурсами.
Доступ к большим выборкам: Открывает возможности для анализа данных, собранных в рамках крупных проектов с репрезентативными выборками.
Ускорение исследований: Сокращает время, затрачиваемое на сбор данных, что особенно важно в быстро меняющейся сфере информационных технологий.
Новые перспективы: Позволяет переосмыслить существующие данные и получить новые знания.
Пример из практики:
В статье, на основе которой написан этот пост, рассматривается исследование роли школьных библиотекарей в интеграции технологий. Изначально данные были собраны для оценки текущей ситуации, но вторичный анализ позволил выявить факторы, способствующие и препятствующие лидерству библиотекарей в этой области.
Важные моменты:
Вторичный анализ – это не просто "халява". Это серьезный метод, требующий систематического подхода:
Четкая формулировка исследовательских вопросов.
Тщательный выбор подходящего набора данных.
Оценка качества и пригодности данных для решения поставленных задач. (Например, необходимо учитывать цель первоначального исследования, методы сбора данных, временной период и т.д.)
Учет ограничений: Важно помнить, что данные были собраны для другой цели, и это может накладывать ограничения на интерпретацию результатов.
В эпоху больших данных, когда объемы собранной и заархивированной информации растут экспоненциально, вторичный анализ данных становится все более актуальным инструментом для исследователей. Что это такое? Вторичный анализ – это использование данных, собранных кем-то другим для другой цели, для ответа на новые исследовательские вопросы.
Почему это важно?
Экономия ресурсов: Позволяет проводить исследования с ограниченными временными и финансовыми ресурсами.
Доступ к большим выборкам: Открывает возможности для анализа данных, собранных в рамках крупных проектов с репрезентативными выборками.
Ускорение исследований: Сокращает время, затрачиваемое на сбор данных, что особенно важно в быстро меняющейся сфере информационных технологий.
Новые перспективы: Позволяет переосмыслить существующие данные и получить новые знания.
Пример из практики:
В статье, на основе которой написан этот пост, рассматривается исследование роли школьных библиотекарей в интеграции технологий. Изначально данные были собраны для оценки текущей ситуации, но вторичный анализ позволил выявить факторы, способствующие и препятствующие лидерству библиотекарей в этой области.
Важные моменты:
Вторичный анализ – это не просто "халява". Это серьезный метод, требующий систематического подхода:
Четкая формулировка исследовательских вопросов.
Тщательный выбор подходящего набора данных.
Оценка качества и пригодности данных для решения поставленных задач. (Например, необходимо учитывать цель первоначального исследования, методы сбора данных, временной период и т.д.)
Учет ограничений: Важно помнить, что данные были собраны для другой цели, и это может накладывать ограничения на интерпретацию результатов.
Forwarded from Denis Sexy IT 🤖
Полезная ссылка для тех кто учится и кому нужны доступы к платным англоязычным научным статьям или книгам:
http://open-slum.org - тут собраны крупные «теневые библиотеки» и их статусы в режиме реального времени
http://open-slum.org - тут собраны крупные «теневые библиотеки» и их статусы в режиме реального времени