Telegram Group & Telegram Channel
Проект по анализу использования языка людьми в интернете закрылся, потому что нейросети слишком сильно «загрязнили данные», заполонив сеть искусственным текстом

Создательница проекта Wordfreq, который отслеживал публикации в интернете, чтобы определить популярность различных слов в языке, сообщила, что проект будет закрыт. Причина — спам, который производит генеративный искусственный интеллект. Он “отравил” интернет до уровня, который уже не позволяет проводить исследования. Wordfreq отслеживал более 40 различных языков, анализируя статьи в Википедии, субтитры к фильмам, новости книги, а также Twitter и Reddit. Система использовалась для анализа меняющихся языковых паттернов по мере изменения современной культуры, ее применяли ученые, которые работают в этой области. В своем сообщении на GitHub создательница проекта Робин Спир написала, что он «больше не будет обновляться».

«Не думаю, что у кого-то есть надежная информация об использовании языка людьми после 2021 года», — отметила она. По словам разработчицы, сегодня интернет заполнен “мусором”, который создают нейросети. «Включение этого мусора в данные искажает частоту использования слов», — сообщила она. В данных, которые анализировал Wordfreq, всегда был спам, но «он был управляемым и часто идентифицируемым». «Большие языковые модели генерируют текст, который специально маскируется под настоящий язык», — пожаловалась она. Спир также привела пример того, что ChatGPT, например, злоупотребляет словом «вникать», что резко повысило частоту этого конкретного слова (но его не так часто используют люди).

Она отметила, что сегодня почти все инструменты (которые щедро финансируют Google, OpenAI и другие) для анализа текста используются именно для обучения нейросетей, чтобы создать «технологии для плагиата, которые будут выдавать ваши слова за свои». Спир также отметила, что сегодня данные получить сложнее, поскольку Twitter и Reddit, которые использовал Wordfreq, начали взимать плату за доступ к своим API из-за того, что их используют для обучения нейросетей.



group-telegram.com/ostorozhno_novosti/29732
Create:
Last Update:

Проект по анализу использования языка людьми в интернете закрылся, потому что нейросети слишком сильно «загрязнили данные», заполонив сеть искусственным текстом

Создательница проекта Wordfreq, который отслеживал публикации в интернете, чтобы определить популярность различных слов в языке, сообщила, что проект будет закрыт. Причина — спам, который производит генеративный искусственный интеллект. Он “отравил” интернет до уровня, который уже не позволяет проводить исследования. Wordfreq отслеживал более 40 различных языков, анализируя статьи в Википедии, субтитры к фильмам, новости книги, а также Twitter и Reddit. Система использовалась для анализа меняющихся языковых паттернов по мере изменения современной культуры, ее применяли ученые, которые работают в этой области. В своем сообщении на GitHub создательница проекта Робин Спир написала, что он «больше не будет обновляться».

«Не думаю, что у кого-то есть надежная информация об использовании языка людьми после 2021 года», — отметила она. По словам разработчицы, сегодня интернет заполнен “мусором”, который создают нейросети. «Включение этого мусора в данные искажает частоту использования слов», — сообщила она. В данных, которые анализировал Wordfreq, всегда был спам, но «он был управляемым и часто идентифицируемым». «Большие языковые модели генерируют текст, который специально маскируется под настоящий язык», — пожаловалась она. Спир также привела пример того, что ChatGPT, например, злоупотребляет словом «вникать», что резко повысило частоту этого конкретного слова (но его не так часто используют люди).

Она отметила, что сегодня почти все инструменты (которые щедро финансируют Google, OpenAI и другие) для анализа текста используются именно для обучения нейросетей, чтобы создать «технологии для плагиата, которые будут выдавать ваши слова за свои». Спир также отметила, что сегодня данные получить сложнее, поскольку Twitter и Reddit, которые использовал Wordfreq, начали взимать плату за доступ к своим API из-за того, что их используют для обучения нейросетей.

BY Осторожно, новости


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/ostorozhno_novosti/29732

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Oh no. There’s a certain degree of myth-making around what exactly went on, so take everything that follows lightly. Telegram was originally launched as a side project by the Durov brothers, with Nikolai handling the coding and Pavel as CEO, while both were at VK. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." "The argument from Telegram is, 'You should trust us because we tell you that we're trustworthy,'" Maréchal said. "It's really in the eye of the beholder whether that's something you want to buy into." This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. The Securities and Exchange Board of India (Sebi) had carried out a similar exercise in 2017 in a matter related to circulation of messages through WhatsApp.
from ar


Telegram Осторожно, новости
FROM American