Telegram Group & Telegram Channel
Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор



group-telegram.com/disruptors_official/2099
Create:
Last Update:

Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор

BY Дизраптор




Share with your friend now:
group-telegram.com/disruptors_official/2099

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Russians are really disconnected from the reality of what happening to their country," Andrey said. "So Telegram has become essential for understanding what's going on to the Russian-speaking world." Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy." Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. "For Telegram, accountability has always been a problem, which is why it was so popular even before the full-scale war with far-right extremists and terrorists from all over the world," she told AFP from her safe house outside the Ukrainian capital. The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips.
from ye


Telegram Дизраптор
FROM American