Telegram Group & Telegram Channel
🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/antidigital/8695
Create:
Last Update:

🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/8695

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. These entities are reportedly operating nine Telegram channels with more than five million subscribers to whom they were making recommendations on selected listed scrips. Such recommendations induced the investors to deal in the said scrips, thereby creating artificial volume and price rise. You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp. To that end, when files are actively downloading, a new icon now appears in the Search bar that users can tap to view and manage downloads, pause and resume all downloads or just individual items, and select one to increase its priority or view it in a chat. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content.
from id


Telegram Нецифровая экономика
FROM American