Telegram Group & Telegram Channel
Появление ИИ в нашей жизни принесло не только новые возможности, но и новые риски. Самые коварные из них, пожалуй, юридические.

Несколько дней назад мы в канале «Потребительское поведение» провели стрим с Виталием Гусевым, кофаундером юридической компании корпоративного права Yuri (тг-канал) на тему «Юридические риски работы с ИИ».
Полная версия здесь, а резюме – перед вами. Сохраняйте.

1️⃣Вопрос. «Кто несет юридическую ответственность за действия ИИ?»
Ответ. Люди и компании, которые его используют. Чтобы избежать спорных ситуаций, лучше заранее определить зоны ответственности департаментов и даже отдельных сотрудников при работе с ИИ. Их можно зафиксировать во внутренних регламентах. То же можно сделать и по отношению к заказчику, договоренности в этом случае фиксируют в договоре или оферте.
Юрист предупреждает. Участие в проекте ИИ не освобождает публикатора от ответственности».

2️⃣Вопрос. Нужно ли маркировать контент, созданный с участием ИИ?
Ответ. Пока закон не требует маркировки ИИ-контента в текстах, это может делаться добровольно. Однако в случае с визуальными образами (например, аватарами известных персон) все сложнее. Претензии возможны, может потребоваться экспертиза на степень сходства образа, созданного ИИ, с реальным человеком или защищенным товарным знаком.

3️⃣Вопрос. Можно ли использовать ИИ, если исполнитель подписал NDA?
Ответ. Все зависит от формулировок в NDA, тут возможны варианты. Например, может стоять запрет на использование материалов заказчика для обучения ИИ. Формально от может быть преодолен, если в конкретной LLM-модели есть возможность отключения использования загруженных данных для обучения. Это бывает, хотя и не у всех, например, в ChatGPT есть, а DeepSeek нет.
Юрист предупреждает. Наличие формальной галочки не освобождает от ответственности, если данные всё-таки утекут.

4️⃣Вопрос. Что делать, если заказчик запрещает использование ИИ, а исполнитель хочет ускорить работу?
Ответ. Можно попробовать договориться о разделении данных по уровням конфиденциальности: что-то можно анализировать ИИ, что-то — нет. Ну или не подписывать такой договор.

5️⃣Вопрос. Считается, что анонимные данные можно обрабатывать с помощью ИИ. Но какие данные можно считать «достаточно анонимными»? Есть ли нормы?
Ответ. Четких норм нет, но в подзаконных актах Роскомнадзора и постановлениях Правительства есть методологии анонимизации. Правда, они сложны для понимания, особенно без подготовки, но таков уж наш мир.
Юрист предупреждает. Использовать генеративный ИИ для их интерпретации юридических документов рискованно – слишком много нюансов, ИИ может неверно истолковать то или иное положение.

6️⃣Вопрос. Можно ли защищать свои ИИ-креативы (тексты. изображения)?
Ответ. Можно, если контент уникален и создан с собственным творческим вкладом. Это значит, что было много правок, подбор запросов, итерации, все это может считаться творческой работой. Но есть нюансы – результат должен быть оригинален. Степень оригинальности при необходимости должна подтвердить экспертиза.
Юрист рассказывает. Некие «авторы» творчески обработали известную книгу Максима Ильяхова «Пиши, сокращай» и выпустили ее сокращенную версию под своими фамилиями. Было несколько судов, в последней инстанции суд признал переработку текста недостаточной, права остались за автором, то есть, Ильяховым.

7️⃣Вопрос. Есть ли риски при использовании ИИ-контента, например, картинок из Midjourney?
Ответ. Смотря что было оригиналом. Использование чужих образов, например, узнаваемых мультперсонажей, может нарушать авторское право. Решение принимает суд на основании экспертизы на степень сходства. Претензии возможны не только при использовании изображений, но и шрифтов, и даже текстов — если они защищены.
Юрист рассказывает. Известны случаи, когда некто регистрирует авторские права на гуляющие по интернету картинки, а затем подает иски неосторожным редакторам. И часто выигрывает.

#К5 #юриспруденция #риск #ИИ #медиа



group-telegram.com/c_behavior/2245
Create:
Last Update:

Появление ИИ в нашей жизни принесло не только новые возможности, но и новые риски. Самые коварные из них, пожалуй, юридические.

Несколько дней назад мы в канале «Потребительское поведение» провели стрим с Виталием Гусевым, кофаундером юридической компании корпоративного права Yuri (тг-канал) на тему «Юридические риски работы с ИИ».
Полная версия здесь, а резюме – перед вами. Сохраняйте.

1️⃣Вопрос. «Кто несет юридическую ответственность за действия ИИ?»
Ответ. Люди и компании, которые его используют. Чтобы избежать спорных ситуаций, лучше заранее определить зоны ответственности департаментов и даже отдельных сотрудников при работе с ИИ. Их можно зафиксировать во внутренних регламентах. То же можно сделать и по отношению к заказчику, договоренности в этом случае фиксируют в договоре или оферте.
Юрист предупреждает. Участие в проекте ИИ не освобождает публикатора от ответственности».

2️⃣Вопрос. Нужно ли маркировать контент, созданный с участием ИИ?
Ответ. Пока закон не требует маркировки ИИ-контента в текстах, это может делаться добровольно. Однако в случае с визуальными образами (например, аватарами известных персон) все сложнее. Претензии возможны, может потребоваться экспертиза на степень сходства образа, созданного ИИ, с реальным человеком или защищенным товарным знаком.

3️⃣Вопрос. Можно ли использовать ИИ, если исполнитель подписал NDA?
Ответ. Все зависит от формулировок в NDA, тут возможны варианты. Например, может стоять запрет на использование материалов заказчика для обучения ИИ. Формально от может быть преодолен, если в конкретной LLM-модели есть возможность отключения использования загруженных данных для обучения. Это бывает, хотя и не у всех, например, в ChatGPT есть, а DeepSeek нет.
Юрист предупреждает. Наличие формальной галочки не освобождает от ответственности, если данные всё-таки утекут.

4️⃣Вопрос. Что делать, если заказчик запрещает использование ИИ, а исполнитель хочет ускорить работу?
Ответ. Можно попробовать договориться о разделении данных по уровням конфиденциальности: что-то можно анализировать ИИ, что-то — нет. Ну или не подписывать такой договор.

5️⃣Вопрос. Считается, что анонимные данные можно обрабатывать с помощью ИИ. Но какие данные можно считать «достаточно анонимными»? Есть ли нормы?
Ответ. Четких норм нет, но в подзаконных актах Роскомнадзора и постановлениях Правительства есть методологии анонимизации. Правда, они сложны для понимания, особенно без подготовки, но таков уж наш мир.
Юрист предупреждает. Использовать генеративный ИИ для их интерпретации юридических документов рискованно – слишком много нюансов, ИИ может неверно истолковать то или иное положение.

6️⃣Вопрос. Можно ли защищать свои ИИ-креативы (тексты. изображения)?
Ответ. Можно, если контент уникален и создан с собственным творческим вкладом. Это значит, что было много правок, подбор запросов, итерации, все это может считаться творческой работой. Но есть нюансы – результат должен быть оригинален. Степень оригинальности при необходимости должна подтвердить экспертиза.
Юрист рассказывает. Некие «авторы» творчески обработали известную книгу Максима Ильяхова «Пиши, сокращай» и выпустили ее сокращенную версию под своими фамилиями. Было несколько судов, в последней инстанции суд признал переработку текста недостаточной, права остались за автором, то есть, Ильяховым.

7️⃣Вопрос. Есть ли риски при использовании ИИ-контента, например, картинок из Midjourney?
Ответ. Смотря что было оригиналом. Использование чужих образов, например, узнаваемых мультперсонажей, может нарушать авторское право. Решение принимает суд на основании экспертизы на степень сходства. Претензии возможны не только при использовании изображений, но и шрифтов, и даже текстов — если они защищены.
Юрист рассказывает. Известны случаи, когда некто регистрирует авторские права на гуляющие по интернету картинки, а затем подает иски неосторожным редакторам. И часто выигрывает.

#К5 #юриспруденция #риск #ИИ #медиа

BY Потребительское поведение; факты и тренды


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/c_behavior/2245

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

In a statement, the regulator said the search and seizure operation was carried out against seven individuals and one corporate entity at multiple locations in Ahmedabad and Bhavnagar in Gujarat, Neemuch in Madhya Pradesh, Delhi, and Mumbai. 'Wild West' Overall, extreme levels of fear in the market seems to have morphed into something more resembling concern. For example, the Cboe Volatility Index fell from its 2022 peak of 36, which it hit Monday, to around 30 on Friday, a sign of easing tensions. Meanwhile, while the price of WTI crude oil slipped from Sunday’s multiyear high $130 of barrel to $109 a pop. Markets have been expecting heavy restrictions on Russian oil, some of which the U.S. has already imposed, and that would reduce the global supply and bring about even more burdensome inflation. Telegram users are able to send files of any type up to 2GB each and access them from any device, with no limit on cloud storage, which has made downloading files more popular on the platform. Continuing its crackdown against entities allegedly involved in a front-running scam using messaging app Telegram, Sebi on Thursday carried out search and seizure operations at the premises of eight entities in multiple locations across the country.
from us


Telegram Потребительское поведение; факты и тренды
FROM American