Telegram Group & Telegram Channel
Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор



group-telegram.com/disruptors_official/2099
Create:
Last Update:

Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор

BY Дизраптор




Share with your friend now:
group-telegram.com/disruptors_official/2099

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Russians are really disconnected from the reality of what happening to their country," Andrey said. "So Telegram has become essential for understanding what's going on to the Russian-speaking world." In 2018, Russia banned Telegram although it reversed the prohibition two years later. Update March 8, 2022: EFF has clarified that Channels and Groups are not fully encrypted, end-to-end, updated our post to link to Telegram’s FAQ for Cloud and Secret chats, updated to clarify that auto-delete is available for group and channel admins, and added some additional links. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice. One thing that Telegram now offers to all users is the ability to “disappear” messages or set remote deletion deadlines. That enables users to have much more control over how long people can access what you’re sending them. Given that Russian law enforcement officials are reportedly (via Insider) stopping people in the street and demanding to read their text messages, this could be vital to protect individuals from reprisals.
from fr


Telegram Дизраптор
FROM American