Telegram Group & Telegram Channel
🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/antidigital/8695
Create:
Last Update:

🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/8695

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. "The argument from Telegram is, 'You should trust us because we tell you that we're trustworthy,'" Maréchal said. "It's really in the eye of the beholder whether that's something you want to buy into." Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. Ukrainian forces successfully attacked Russian vehicles in the capital city of Kyiv thanks to a public tip made through the encrypted messaging app Telegram, Ukraine's top law-enforcement agency said on Tuesday. At its heart, Telegram is little more than a messaging app like WhatsApp or Signal. But it also offers open channels that enable a single user, or a group of users, to communicate with large numbers in a method similar to a Twitter account. This has proven to be both a blessing and a curse for Telegram and its users, since these channels can be used for both good and ill. Right now, as Wired reports, the app is a key way for Ukrainians to receive updates from the government during the invasion.
from sa


Telegram Нецифровая экономика
FROM American