Telegram Group & Telegram Channel
Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор



group-telegram.com/disruptors_official/2099
Create:
Last Update:

Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор

BY Дизраптор




Share with your friend now:
group-telegram.com/disruptors_official/2099

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Founder Pavel Durov says tech is meant to set you free False news often spreads via public groups, or chats, with potentially fatal effects. Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. To that end, when files are actively downloading, a new icon now appears in the Search bar that users can tap to view and manage downloads, pause and resume all downloads or just individual items, and select one to increase its priority or view it in a chat. "Your messages about the movement of the enemy through the official chatbot … bring new trophies every day," the government agency tweeted.
from ca


Telegram Дизраптор
FROM American