Telegram Group & Telegram Channel
Эффект Матфея возвращается!

С каждым годом появляется все больше и больше цифровых инструментов, способных упростить те или иные аспекты академической рутины. С энтузиазмом или опасением сейчас обсуждаются большие языковые модели, выложенные в открытый доступ. Самой известной из них является chatGPT, получившая в конце 2022 года интуитивный интерфейс и большое освещение в медиа.

Их распространение грозит как прозрачности науки (этому посвящена колонка в Nature), так и валидности публикуемого научного знания. Теперь, когда с момента «открытия» chatGPT для широкой публики прошло более года, стали появляться первые оценки распространенности его использования. Основная предпосылка такого рода оценок, – неожиданный рост частотности тех или иных слов или словосочетаний в текстах публикаций. Заметим, что есть и совсем комичные случаи проникновения инструментальных сообщений чатбота в тексты публикаций: сотни тысяч просмотров набрал твит Гийома Кабанака (Guillaume Cabanac) о статье, чья аннотация начинается фразой “Certainly! Here is a possible introduction for your topic <…>”.

На рисунке ниже показано несколько примеров слов/словосочетаний, ставших значительно чаще появляться в научных текстах на openalex в 2023 году (первый полный год после публичного релиза chatGPT). Неожиданный рост частотности слова “delve” (“копаться”, “углубляться”) ранее был показан в твите Филипа Шапиры (Philip Shapira), другие примеры взяты из обсуждений на reddit (раз, два), в которых пользователи делились своим опытом работы с чатботом.

Эта грубая идея получила более серьезное развитие в препринте Эндрю Грэя (Andrew Gray). Используя данные Dimensions и опробированный ранее словарь лексики, характерной для ответов чатбота, он оценил распространенность применения AI в академических текстах 2023 года в 1% (~60000 публикаций). Если вы пользуетесь чатботом, например, для proofreading, советуем хорошо запомнить слова, которые «выдают» применение AI. Среди них особенно часто встречаются: “commendable“, “meticulous“ и “intricate“.

Мы думаем, что очень скоро способ идентификации AI по росту частотности тех или иных слов или в научных текстах перестанет так хорошо работать. Авторы могут попросить языкового помощника переформулировать сгенерированный текст или вручную удалять характерные для него слова. Автор также может дообучить модель на корпусе собственных текстов, чтобы сделать написанные помощником фрагменты неотличмыми от собственных. Идентификация нечеловеческих следов в публикациях, таким образом, все еще будет требовать тщательного изучения отдельных случаев (а их база собирается, например, на Retraction Watch, куда также можно прислать подозрительные публикации).

Кажется, что тема использования языковых помощников в академических текстах с нами надолго.



group-telegram.com/ciase_eu/60
Create:
Last Update:

Эффект Матфея возвращается!

С каждым годом появляется все больше и больше цифровых инструментов, способных упростить те или иные аспекты академической рутины. С энтузиазмом или опасением сейчас обсуждаются большие языковые модели, выложенные в открытый доступ. Самой известной из них является chatGPT, получившая в конце 2022 года интуитивный интерфейс и большое освещение в медиа.

Их распространение грозит как прозрачности науки (этому посвящена колонка в Nature), так и валидности публикуемого научного знания. Теперь, когда с момента «открытия» chatGPT для широкой публики прошло более года, стали появляться первые оценки распространенности его использования. Основная предпосылка такого рода оценок, – неожиданный рост частотности тех или иных слов или словосочетаний в текстах публикаций. Заметим, что есть и совсем комичные случаи проникновения инструментальных сообщений чатбота в тексты публикаций: сотни тысяч просмотров набрал твит Гийома Кабанака (Guillaume Cabanac) о статье, чья аннотация начинается фразой “Certainly! Here is a possible introduction for your topic <…>”.

На рисунке ниже показано несколько примеров слов/словосочетаний, ставших значительно чаще появляться в научных текстах на openalex в 2023 году (первый полный год после публичного релиза chatGPT). Неожиданный рост частотности слова “delve” (“копаться”, “углубляться”) ранее был показан в твите Филипа Шапиры (Philip Shapira), другие примеры взяты из обсуждений на reddit (раз, два), в которых пользователи делились своим опытом работы с чатботом.

Эта грубая идея получила более серьезное развитие в препринте Эндрю Грэя (Andrew Gray). Используя данные Dimensions и опробированный ранее словарь лексики, характерной для ответов чатбота, он оценил распространенность применения AI в академических текстах 2023 года в 1% (~60000 публикаций). Если вы пользуетесь чатботом, например, для proofreading, советуем хорошо запомнить слова, которые «выдают» применение AI. Среди них особенно часто встречаются: “commendable“, “meticulous“ и “intricate“.

Мы думаем, что очень скоро способ идентификации AI по росту частотности тех или иных слов или в научных текстах перестанет так хорошо работать. Авторы могут попросить языкового помощника переформулировать сгенерированный текст или вручную удалять характерные для него слова. Автор также может дообучить модель на корпусе собственных текстов, чтобы сделать написанные помощником фрагменты неотличмыми от собственных. Идентификация нечеловеческих следов в публикациях, таким образом, все еще будет требовать тщательного изучения отдельных случаев (а их база собирается, например, на Retraction Watch, куда также можно прислать подозрительные публикации).

Кажется, что тема использования языковых помощников в академических текстах с нами надолго.

BY Эффект Матфея


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/ciase_eu/60

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Right now the digital security needs of Russians and Ukrainians are very different, and they lead to very different caveats about how to mitigate the risks associated with using Telegram. For Ukrainians in Ukraine, whose physical safety is at risk because they are in a war zone, digital security is probably not their highest priority. They may value access to news and communication with their loved ones over making sure that all of their communications are encrypted in such a manner that they are indecipherable to Telegram, its employees, or governments with court orders. "Markets were cheering this economic recovery and return to strong economic growth, but the cheers will turn to tears if the inflation outbreak pushes businesses and consumers to the brink of recession," he added. Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. Telegram was co-founded by Pavel and Nikolai Durov, the brothers who had previously created VKontakte. VK is Russia’s equivalent of Facebook, a social network used for public and private messaging, audio and video sharing as well as online gaming. In January, SimpleWeb reported that VK was Russia’s fourth most-visited website, after Yandex, YouTube and Google’s Russian-language homepage. In 2016, Forbes’ Michael Solomon described Pavel Durov (pictured, below) as the “Mark Zuckerberg of Russia.” Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy."
from us


Telegram Эффект Матфея
FROM American