Telegram Group & Telegram Channel
🥊Современные технологии несут новые правовые риски как для бизнеса, так и для физических лиц. Раз в 10-20 лет реальность меняется настолько, что закон перестает быть для неё актуальным.

Простой пример на основе недавней консультации:

Допустим, вы врач или медицинская клиника, консультируете пациентов, в том числе дистанционно. Предположим, что вы решили создать бота на основе искусственного интеллекта, который будет анализировать данные от больного (жалобы, показания медицинских приборов и т.д.) и выдавать на их основе алгоритмы лечения, рекомендовать лекарственные препараты и т.д.

И вот, вы заказываете у программистов этот бот, они вам его делают, вы его запускаете и все хорошо. Но в какой-то момент что-то происходит не так - пациент приобретает по рекомендации бота лекарство, принимает его в рекомендованной ботом дозировке и умирает. Оказывается, бот не рассчитал дозировку, неправильно поставил диагноз или не учел индивидуальную непереносимость пациента на конкретный препарат.

Кто должен нести за это ответственность? Вы как собственник бота? Разработчик бота? А может создатели нейросети, на основе которой работает бот? А может в работу бота вмешались хакеры и умышленно изменили его настройки, чтобы навредить конкурентам? Или виноват сам пациент, потому что перед использованием бота кликнул на галочку о том, что берет все риски на себя?
(Кстати ☝️одно из самых частых заблуждений в том, что такое возложение ответственности на потребителя избавит поставщика некачественного товара или услуги от уголовной ответственности).

Разумеется, в нынешних реалиях никому не дадут права поставить лечение людей на автоматизированный поток, доверив его искусственному интеллекту. И основную ответственность в любом случае будут нести врач и медицинская организация.

Но, учитывая скорость развития искусственного интеллекта, все идет к тому, что в не сильно далеком будущем помимо физических и юридических лиц появится ещё как минимум одна категория - виртуальные лица.

Записаться на консультацию | Инстаграм | ВК
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/uzdenskiy/468
Create:
Last Update:

🥊Современные технологии несут новые правовые риски как для бизнеса, так и для физических лиц. Раз в 10-20 лет реальность меняется настолько, что закон перестает быть для неё актуальным.

Простой пример на основе недавней консультации:

Допустим, вы врач или медицинская клиника, консультируете пациентов, в том числе дистанционно. Предположим, что вы решили создать бота на основе искусственного интеллекта, который будет анализировать данные от больного (жалобы, показания медицинских приборов и т.д.) и выдавать на их основе алгоритмы лечения, рекомендовать лекарственные препараты и т.д.

И вот, вы заказываете у программистов этот бот, они вам его делают, вы его запускаете и все хорошо. Но в какой-то момент что-то происходит не так - пациент приобретает по рекомендации бота лекарство, принимает его в рекомендованной ботом дозировке и умирает. Оказывается, бот не рассчитал дозировку, неправильно поставил диагноз или не учел индивидуальную непереносимость пациента на конкретный препарат.

Кто должен нести за это ответственность? Вы как собственник бота? Разработчик бота? А может создатели нейросети, на основе которой работает бот? А может в работу бота вмешались хакеры и умышленно изменили его настройки, чтобы навредить конкурентам? Или виноват сам пациент, потому что перед использованием бота кликнул на галочку о том, что берет все риски на себя?
(Кстати ☝️одно из самых частых заблуждений в том, что такое возложение ответственности на потребителя избавит поставщика некачественного товара или услуги от уголовной ответственности).

Разумеется, в нынешних реалиях никому не дадут права поставить лечение людей на автоматизированный поток, доверив его искусственному интеллекту. И основную ответственность в любом случае будут нести врач и медицинская организация.

Но, учитывая скорость развития искусственного интеллекта, все идет к тому, что в не сильно далеком будущем помимо физических и юридических лиц появится ещё как минимум одна категория - виртуальные лица.

Записаться на консультацию | Инстаграм | ВК

BY Адвокат его превосходительства




Share with your friend now:
group-telegram.com/uzdenskiy/468

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Anastasia Vlasova/Getty Images Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. "There is a significant risk of insider threat or hacking of Telegram systems that could expose all of these chats to the Russian government," said Eva Galperin with the Electronic Frontier Foundation, which has called for Telegram to improve its privacy practices. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." The last couple days have exemplified that uncertainty. On Thursday, news emerged that talks in Turkey between the Russia and Ukraine yielded no positive result. But on Friday, Reuters reported that Russian President Vladimir Putin said there had been some “positive shifts” in talks between the two sides.
from sg


Telegram Адвокат его превосходительства
FROM American