Telegram Group & Telegram Channel
🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/antidigital/8695
Create:
Last Update:

🏘 Раньше вас дискриминировал ИИ при приеме на работу. Теперь — и при аренде квартиры

В 2021 году Мэри Луис получила в сервисе по оценке потенциальных арендаторов на основе ИИ SafeRent всего 324 балла — увы, этого было недостаточно. Сервис в своём отчёте на 11 страниц так и не объяснил, на основе чего рассчитывалась оценка или каким образом взвешивались различные факторы. В поле рядом с результатом отчета было написано: «Рекомендация по оценке: ОТКЛОНИТЬ».

Поначалу фирма, сдающая апартаменты, заверила женщину, что с подписанием договора не будет проблем, а проверка — чистая формальность. Мэри Луис работает охранником, у неё низкий кредитный рейтинг, но зато — отличные рекомендации арендодателя за последние 17 лет, где говорилось, что она ни разу не пропустила платёж. Также у неё был ваучер о том, что в случае неуплаты аренды для её частичного погашения будут направлены социальные выплаты, а также подтверждение высокой платежеспособности сына.

Для одобрения заявки ей нужно было набрать не менее 443 баллов. После отказа никаких объяснений Мэри Луис не получила. Ей пришлось снять более дорогостоющую квартиру: удивительно, но там у арендодателя вопросов к благонадежности не возникло.

Так начался трехлетний процесс Мэри Луис против сервиса оценки благонадежности арендаторов SafeRent. Как выяснилось, её опыт не уникален. Она была одной из более чем 400 арендаторов в Массачусетсе, заявки которых были отклонены из-за оценки SafeRent.

В чем обвиняют ИИ-сервис:
▪️ алгоритм компании непропорционально ниже оценивает чернокожих и латиноамериканских арендаторов, использующих жилищные ваучеры, по сравнению с белыми заявителями;
▪️ ПО давало нерепрезентативную оценку того, будут ли они хорошими арендаторами: например, придавало большое значение кредитным баллам и не связанным с жильем долгам, но не учитывало наличие тех самых ваучеров.

Только в ноябре этого года компания урегулировала спор: помимо выплаты $2,3 млн, SafeRent согласилась прекратить использовать текущую систему ИИ-оценки или давать рекомендации в отношении арендаторов, использующих жилищные ваучеры.

Кейс SafeRent показательный. Почти 100% из 92 миллионов человек, которые считаются малоимущими в США, подвергались принятию решений с помощью ИИ в таких основных сферах жизни, как занятость, жилье, медицина, обучение или государственная помощь. ИИ используется общественными институтами как способ переложить ответственность за принятые непростые решения на технологии. И регулирования в этой сфере недостаточно.

Джо Байден во время своего президентского срока издал указ, которым постановил решать проблемы дискриминации в системах искусственного интеллекта. Однако Дональд Трамп пообещал отменить эту работу и сократить регулирование, включая уже изданный указ Байдена по усилению контроля за сферой искусственного интеллекта. Пока что прогноз правозащитников таков, что кейсов, подобных SafeRent, будет только больше.

BY Нецифровая экономика




Share with your friend now:
group-telegram.com/antidigital/8695

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram boasts 500 million users, who share information individually and in groups in relative security. But Telegram's use as a one-way broadcast channel — which followers can join but not reply to — means content from inauthentic accounts can easily reach large, captive and eager audiences. Perpetrators of such fraud use various marketing techniques to attract subscribers on their social media channels. That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future. The channel appears to be part of the broader information war that has developed following Russia's invasion of Ukraine. The Kremlin has paid Russian TikTok influencers to push propaganda, according to a Vice News investigation, while ProPublica found that fake Russian fact check videos had been viewed over a million times on Telegram. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice.
from ru


Telegram Нецифровая экономика
FROM American