Telegram Group & Telegram Channel
🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/antidigital/8695
Create:
Last Update:

🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/8695

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel. He floated the idea of restricting the use of Telegram in Ukraine and Russia, a suggestion that was met with fierce opposition from users. Shortly after, Durov backed off the idea. During the operations, Sebi officials seized various records and documents, including 34 mobile phones, six laptops, four desktops, four tablets, two hard drive disks and one pen drive from the custody of these persons. For tech stocks, “the main thing is yields,” Essaye said. Just days after Russia invaded Ukraine, Durov wrote that Telegram was "increasingly becoming a source of unverified information," and he worried about the app being used to "incite ethnic hatred."
from us


Telegram Нецифровая экономика
FROM American