group-telegram.com/uzdenskiy/468
Last Update:
Простой пример на основе недавней консультации:
Допустим, вы врач или медицинская клиника, консультируете пациентов, в том числе дистанционно. Предположим, что вы решили создать бота на основе искусственного интеллекта, который будет анализировать данные от больного (жалобы, показания медицинских приборов и т.д.) и выдавать на их основе алгоритмы лечения, рекомендовать лекарственные препараты и т.д.
И вот, вы заказываете у программистов этот бот, они вам его делают, вы его запускаете и все хорошо. Но в какой-то момент что-то происходит не так - пациент приобретает по рекомендации бота лекарство, принимает его в рекомендованной ботом дозировке и умирает. Оказывается, бот не рассчитал дозировку, неправильно поставил диагноз или не учел индивидуальную непереносимость пациента на конкретный препарат.
Кто должен нести за это ответственность? Вы как собственник бота? Разработчик бота? А может создатели нейросети, на основе которой работает бот? А может в работу бота вмешались хакеры и умышленно изменили его настройки, чтобы навредить конкурентам? Или виноват сам пациент, потому что перед использованием бота кликнул на галочку о том, что берет все риски на себя?
(Кстати ☝️одно из самых частых заблуждений в том, что такое возложение ответственности на потребителя избавит поставщика некачественного товара или услуги от уголовной ответственности).
Разумеется, в нынешних реалиях никому не дадут права поставить лечение людей на автоматизированный поток, доверив его искусственному интеллекту. И основную ответственность в любом случае будут нести врач и медицинская организация.
Но, учитывая скорость развития искусственного интеллекта, все идет к тому, что в не сильно далеком будущем помимо физических и юридических лиц появится ещё как минимум одна категория - виртуальные лица.
Записаться на консультацию | Инстаграм | ВК