Telegram Group & Telegram Channel
​​В результате почти полугодовой забастовки, WGA удалось добиться «выдающейся» сделки, обеспечив защиту своим авторам в той или иной степени по всем ключевым пунктам, в том числе в вопросе использования ИИ.

• Сценаристам гарантируется вознаграждение и компенсация за работу над сценариями, даже если при их создании использовался искусственный интеллект.

• Сгенерированные ИИ материалы не считаются «исходным материалом».

• Компания не может обязать сценариста использовать ИИ и должна информировать, если этот инструмент использовался.

Но есть в договоре одна интересная оговорка:

«Гильдия оставляет за собой право утверждать, что использование материалов писателей для обучения искусственного интеллекта запрещено минимальным базовым соглашением или другим законом».

«Оставляет за собой право»
. Не «использование материалов писателей для обучения ИИ запрещено», а «Гильдия оставляет за собой право утверждать, что это запрещено». Улавливаете разницу?

Гильдии может быть и хотелось бы запретить использование материалов писателей для обучения ИИ, но у нее нет для этого юридических инструментов — существующие правовые нормы не дают определенности в вопросе нарушения авторских прав искусственным интеллектом. А когда появятся новые — неизвестно.

Вероятно, множественные индивидуальные иски к большим компаниям от авторов, которых не устраивает использование их материалов для обучения ИИ, ускорят модернизацию законодательства, но важно понимать, что этот вопрос гораздо шире одной только юридической плоскости. Потому что проблема не в том, как именно компании используют материалы авторов для обучения нейросетей. А в том, что они делают это тайно.

Мы все уже давно уяснили, что ChatGPT, например, учится на условном множестве загруженных в нее текстов из Интернета. «Нейросеть не придумывает ничего нового, а обрабатывает уже имеющуюся информацию». Но какую именно? Какие именно тексты в нее были загружены? Ведь кажется довольно очевидным, что для обучения настолько продвинутых инструментов нужны не мои правки «Википедии», а более качественный материал.

И вот я наткнулся сегодня совершенно случайно на статью, которая и заставила меня написать этот пост: 183 000 спираченных книг (и еще 8 000, информация о которых отсутствует в книжной базе данных), которые были использованы для обучения GPT-J, EleutherAI, BloombergGPT, LLaMA и, вероятно, других генеративных ИИ-программ, внедренных в сайты по всему Интернету.

Точнее, это даже не одна статья, а серия материалов про Books3 — довольно известную, как выяснилось, в кругах разработчиков (Books1 была опубликована еще в 2020-м году), но скрытую от глаз обывателей базу данных из книг для обучения генеративных ИИ-программ. Нобелевские лауреаты, «Подземелья и драконы», христианская литература и эротика — все это служит точками отсчета для машины.

Вот здесь можно почитать про историю этой базы данных и тех, что были до нее, с комментариями от ее разработчика и компаний, которые ее использовали. Вот здесь — чуть подробней про ее содержание с конкретными цифрами (236 инструкций от Шекспира, не менее 175 из Библии и 46 книг Буковски).

А вот здесь самому проверить, нет ли вдруг в этой базе вашей книги (или просто поиграться и проверить любую другую).

#essay | #read



group-telegram.com/lookmomicanscript/780
Create:
Last Update:

​​В результате почти полугодовой забастовки, WGA удалось добиться «выдающейся» сделки, обеспечив защиту своим авторам в той или иной степени по всем ключевым пунктам, в том числе в вопросе использования ИИ.

• Сценаристам гарантируется вознаграждение и компенсация за работу над сценариями, даже если при их создании использовался искусственный интеллект.

• Сгенерированные ИИ материалы не считаются «исходным материалом».

• Компания не может обязать сценариста использовать ИИ и должна информировать, если этот инструмент использовался.

Но есть в договоре одна интересная оговорка:

«Гильдия оставляет за собой право утверждать, что использование материалов писателей для обучения искусственного интеллекта запрещено минимальным базовым соглашением или другим законом».

«Оставляет за собой право»
. Не «использование материалов писателей для обучения ИИ запрещено», а «Гильдия оставляет за собой право утверждать, что это запрещено». Улавливаете разницу?

Гильдии может быть и хотелось бы запретить использование материалов писателей для обучения ИИ, но у нее нет для этого юридических инструментов — существующие правовые нормы не дают определенности в вопросе нарушения авторских прав искусственным интеллектом. А когда появятся новые — неизвестно.

Вероятно, множественные индивидуальные иски к большим компаниям от авторов, которых не устраивает использование их материалов для обучения ИИ, ускорят модернизацию законодательства, но важно понимать, что этот вопрос гораздо шире одной только юридической плоскости. Потому что проблема не в том, как именно компании используют материалы авторов для обучения нейросетей. А в том, что они делают это тайно.

Мы все уже давно уяснили, что ChatGPT, например, учится на условном множестве загруженных в нее текстов из Интернета. «Нейросеть не придумывает ничего нового, а обрабатывает уже имеющуюся информацию». Но какую именно? Какие именно тексты в нее были загружены? Ведь кажется довольно очевидным, что для обучения настолько продвинутых инструментов нужны не мои правки «Википедии», а более качественный материал.

И вот я наткнулся сегодня совершенно случайно на статью, которая и заставила меня написать этот пост: 183 000 спираченных книг (и еще 8 000, информация о которых отсутствует в книжной базе данных), которые были использованы для обучения GPT-J, EleutherAI, BloombergGPT, LLaMA и, вероятно, других генеративных ИИ-программ, внедренных в сайты по всему Интернету.

Точнее, это даже не одна статья, а серия материалов про Books3 — довольно известную, как выяснилось, в кругах разработчиков (Books1 была опубликована еще в 2020-м году), но скрытую от глаз обывателей базу данных из книг для обучения генеративных ИИ-программ. Нобелевские лауреаты, «Подземелья и драконы», христианская литература и эротика — все это служит точками отсчета для машины.

Вот здесь можно почитать про историю этой базы данных и тех, что были до нее, с комментариями от ее разработчика и компаний, которые ее использовали. Вот здесь — чуть подробней про ее содержание с конкретными цифрами (236 инструкций от Шекспира, не менее 175 из Библии и 46 книг Буковски).

А вот здесь самому проверить, нет ли вдруг в этой базе вашей книги (или просто поиграться и проверить любую другую).

#essay | #read

BY look mom i can script




Share with your friend now:
group-telegram.com/lookmomicanscript/780

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram boasts 500 million users, who share information individually and in groups in relative security. But Telegram's use as a one-way broadcast channel — which followers can join but not reply to — means content from inauthentic accounts can easily reach large, captive and eager audiences. At this point, however, Durov had already been working on Telegram with his brother, and further planned a mobile-first social network with an explicit focus on anti-censorship. Later in April, he told TechCrunch that he had left Russia and had “no plans to go back,” saying that the nation was currently “incompatible with internet business at the moment.” He added later that he was looking for a country that matched his libertarian ideals to base his next startup. But Telegram says people want to keep their chat history when they get a new phone, and they like having a data backup that will sync their chats across multiple devices. And that is why they let people choose whether they want their messages to be encrypted or not. When not turned on, though, chats are stored on Telegram's services, which are scattered throughout the world. But it has "disclosed 0 bytes of user data to third parties, including governments," Telegram states on its website. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Ukrainian President Volodymyr Zelensky said in a video message on Tuesday that Ukrainian forces "destroy the invaders wherever we can."
from ua


Telegram look mom i can script
FROM American