Telegram Group & Telegram Channel
🥊Современные технологии несут новые правовые риски как для бизнеса, так и для физических лиц. Раз в 10-20 лет реальность меняется настолько, что закон перестает быть для неё актуальным.

Простой пример на основе недавней консультации:

Допустим, вы врач или медицинская клиника, консультируете пациентов, в том числе дистанционно. Предположим, что вы решили создать бота на основе искусственного интеллекта, который будет анализировать данные от больного (жалобы, показания медицинских приборов и т.д.) и выдавать на их основе алгоритмы лечения, рекомендовать лекарственные препараты и т.д.

И вот, вы заказываете у программистов этот бот, они вам его делают, вы его запускаете и все хорошо. Но в какой-то момент что-то происходит не так - пациент приобретает по рекомендации бота лекарство, принимает его в рекомендованной ботом дозировке и умирает. Оказывается, бот не рассчитал дозировку, неправильно поставил диагноз или не учел индивидуальную непереносимость пациента на конкретный препарат.

Кто должен нести за это ответственность? Вы как собственник бота? Разработчик бота? А может создатели нейросети, на основе которой работает бот? А может в работу бота вмешались хакеры и умышленно изменили его настройки, чтобы навредить конкурентам? Или виноват сам пациент, потому что перед использованием бота кликнул на галочку о том, что берет все риски на себя?
(Кстати ☝️одно из самых частых заблуждений в том, что такое возложение ответственности на потребителя избавит поставщика некачественного товара или услуги от уголовной ответственности).

Разумеется, в нынешних реалиях никому не дадут права поставить лечение людей на автоматизированный поток, доверив его искусственному интеллекту. И основную ответственность в любом случае будут нести врач и медицинская организация.

Но, учитывая скорость развития искусственного интеллекта, все идет к тому, что в не сильно далеком будущем помимо физических и юридических лиц появится ещё как минимум одна категория - виртуальные лица.

Записаться на консультацию | Инстаграм | ВК
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/uzdenskiy/468
Create:
Last Update:

🥊Современные технологии несут новые правовые риски как для бизнеса, так и для физических лиц. Раз в 10-20 лет реальность меняется настолько, что закон перестает быть для неё актуальным.

Простой пример на основе недавней консультации:

Допустим, вы врач или медицинская клиника, консультируете пациентов, в том числе дистанционно. Предположим, что вы решили создать бота на основе искусственного интеллекта, который будет анализировать данные от больного (жалобы, показания медицинских приборов и т.д.) и выдавать на их основе алгоритмы лечения, рекомендовать лекарственные препараты и т.д.

И вот, вы заказываете у программистов этот бот, они вам его делают, вы его запускаете и все хорошо. Но в какой-то момент что-то происходит не так - пациент приобретает по рекомендации бота лекарство, принимает его в рекомендованной ботом дозировке и умирает. Оказывается, бот не рассчитал дозировку, неправильно поставил диагноз или не учел индивидуальную непереносимость пациента на конкретный препарат.

Кто должен нести за это ответственность? Вы как собственник бота? Разработчик бота? А может создатели нейросети, на основе которой работает бот? А может в работу бота вмешались хакеры и умышленно изменили его настройки, чтобы навредить конкурентам? Или виноват сам пациент, потому что перед использованием бота кликнул на галочку о том, что берет все риски на себя?
(Кстати ☝️одно из самых частых заблуждений в том, что такое возложение ответственности на потребителя избавит поставщика некачественного товара или услуги от уголовной ответственности).

Разумеется, в нынешних реалиях никому не дадут права поставить лечение людей на автоматизированный поток, доверив его искусственному интеллекту. И основную ответственность в любом случае будут нести врач и медицинская организация.

Но, учитывая скорость развития искусственного интеллекта, все идет к тому, что в не сильно далеком будущем помимо физических и юридических лиц появится ещё как минимум одна категория - виртуальные лица.

Записаться на консультацию | Инстаграм | ВК

BY Адвокат его превосходительства




Share with your friend now:
group-telegram.com/uzdenskiy/468

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp. The picture was mixed overseas. Hong Kong’s Hang Seng Index fell 1.6%, under pressure from U.S. regulatory scrutiny on New York-listed Chinese companies. Stocks were more buoyant in Europe, where Frankfurt’s DAX surged 1.4%. Recently, Durav wrote on his Telegram channel that users' right to privacy, in light of the war in Ukraine, is "sacred, now more than ever." So, uh, whenever I hear about Telegram, it’s always in relation to something bad. What gives? Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations.
from id


Telegram Адвокат его превосходительства
FROM American