Telegram Group & Telegram Channel
Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор



group-telegram.com/disruptors_official/2099
Create:
Last Update:

Нейросети будут решать, кому жить?

Еще один громкий бизнес-провал уходящего года (если можно так выразиться) - это убийство CEO UnitedHealthcare - крупнейшей медицинской страховой компании США. Не буду вдаваться в подробности расправы, лишь скажу, что убийца всадил в страхового босса три пули. На каждой пуле было по слову: Deny, Defend и Depose. Это отсылка к Delay, Deny, Defend - трём словам, которыми критикуют подходы страховщиков. Delay - оттянуть выплату, Deny - отрицать наличие страхового случая и возможность помощи, Defend - защищать свои деньги и прибыль, ну вы поняли. Убийца заменил Delay ("оттянуть", "отложить", "отстрочить") на Depose ("свергать") - видимо, намекая, что нужно свергать сейчас, не откладывая.

Но это ладно, своим остроумием киллер пусть за решёткой упивается. Наш же интересуют дизрапты, технологии и инновации. И тут они тоже есть, причём весьма противоречивые:

В октябре комитет Сената США по расследованием опубликовал отчёт, где утверждалось, что с 2020 по 2022 годы UnitedHealthcare стал гораздо чаще отказывать в страховом покрытии в экстренных и острых ситуациях. Процент отказов вырос с 10,9% в 2020 году до 22,7% в 2022. А в детских медицинских учреждениях (nursery centers) отказывать стали в аж в 9 раз чаще. Другими словами, человек вот уже лежит на операционном столе и ждёт спасения, а ему отказывает страховая.

А в прошлом году против компании подали коллективный иск в связи с "неправомерным использованием искусственного интеллекта для систематического отклонения претензий". Проще говоря, компанию обвиняли в том, что она внедрила ИИ, чтобы выдавать побольше отказов. UnitedHealthcare, конечно, отрицает большинство обвинений, да и отчёт Сената раскритиковала ("Вы всё не так понели..."), но не стала отрицать, что кое-какую автоматизацию всё же внедрила. Однако, отметила, что автоматизация сделана для сокращения затрат обработки решений и прочего повышения эффективности, а не чтобы поубивать побольше пациентов. Тем не менее, этого хватило, чтобы отдельный фанатик вообразил себя народным мстителем.

Это я к чему. На мой взгляд, здесь возникает довольно сложный философский вопрос:

Если ИИ анализирует информацию и выявляет закономерности гораздо эффективнее, чем связка "человек + алгоритм" (а это скорее всего так - и разрыв в эффективность будет только расти), но при этом, будучи лишенным всякой гуманности и сочувствия, выдаёт больше отказов.... то как к этому относиться? С одной стороны, страховая на то и страховая, чтобы делать выплаты тем, кому они действительно положены. Страховая компания - это бизнес, в конце концов. С другой стороны, не хочется быть тем самым бедолагой, который услышит отказ, склеивая ласты в реанимации. Даже если этот отказ логичен и формально правомерен.

Я не знаю, какой здесь правильный ответ. Но у меня есть самые умные подписчики, поэтому спрошу вас. Как вы думаете, до какой степени можно передавать вот такие критичные решения на откуп более точной, но бездушной машине?

* Если что, редакция канала Дизраптор в лице меня осуждает любые убийства, как и другие негуманные и неизящные способы решения проблем.

Дизраптор

BY Дизраптор




Share with your friend now:
group-telegram.com/disruptors_official/2099

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. Telegram has gained a reputation as the “secure” communications app in the post-Soviet states, but whenever you make choices about your digital security, it’s important to start by asking yourself, “What exactly am I securing? And who am I securing it from?” These questions should inform your decisions about whether you are using the right tool or platform for your digital security needs. Telegram is certainly not the most secure messaging app on the market right now. Its security model requires users to place a great deal of trust in Telegram’s ability to protect user data. For some users, this may be good enough for now. For others, it may be wiser to move to a different platform for certain kinds of high-risk communications. Andrey, a Russian entrepreneur living in Brazil who, fearing retaliation, asked that NPR not use his last name, said Telegram has become one of the few places Russians can access independent news about the war. In 2018, Russia banned Telegram although it reversed the prohibition two years later. "He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said.
from es


Telegram Дизраптор
FROM American