Telegram Group & Telegram Channel
🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/antidigital/8695
Create:
Last Update:

🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/8695

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Artem Kliuchnikov and his family fled Ukraine just days before the Russian invasion. What distinguishes the app from competitors is its use of what's known as channels: Public or private feeds of photos and videos that can be set up by one person or an organization. The channels have become popular with on-the-ground journalists, aid workers and Ukrainian President Volodymyr Zelenskyy, who broadcasts on a Telegram channel. The channels can be followed by an unlimited number of people. Unlike Facebook, Twitter and other popular social networks, there is no advertising on Telegram and the flow of information is not driven by an algorithm. In 2018, Russia banned Telegram although it reversed the prohibition two years later. After fleeing Russia, the brothers founded Telegram as a way to communicate outside the Kremlin's orbit. They now run it from Dubai, and Pavel Durov says it has more than 500 million monthly active users. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read."
from us


Telegram Нецифровая экономика
FROM American