Telegram Group & Telegram Channel
AI Snake Oil - книга как бигтехи запугали мир, чтобы и больше заработать на AI, и монополизировать его. От ученых из Princeton/Netflix/Fb A.Narayanan и S.Kapoor. Snake oil - это панацея, мифическое лекарство от всего:

I. Интро
- Проблема, что 1) словом AI стали размыто называть что угодно 2) пользуясь oversell и непониманием людей - запугивают их. До ChatGPT же был Github Copilot и пофигу
- У AI все еще нет определения. 1) Что-то требующее от нас учебы или креативности + 2) Не код/правила, а неявная emergence + 3) Системы с некой автономностью
- Нужно различать 2 типа AI: generative (хорош вплоть до хайпа) и predictive (часто не работает)

II. Что не так с predictive AI?
- Мы всюду окружены системами оценки нас алгоритмами, но они фэйлят, и на Netflix это безобидно, а в анализе кандидатов, студентов, пациентов, сотрудников, подсудимых, заключенных итп - это критически влияющие на жизни "решения"
- Фирмы предиктивной аналитики НЕ тестят софт как в фарме (рандомизированные контролируемые испытания) и получается дичь
- И уж тем более не изучают последствия продажи их софта (в Австралии ложно обвинили в обогащении 400К получателей соцвыплат)

III. Можно ли предсказать будущее?
- Если сделать поправки на утечку данных в datasets, то топ ML прогнозы не лучше древних регрессий. Продавцы AI запредельно оверселлят + медиа разгоняют, а по факту - херово работает. FTC писали об обмане
- Причем рост данных (разведки и бигтехи хотели бы трекать каждое наше слово) не улучшает прогнозы про людей. И погоду, пандемии, карьеры и до твитов, Гарри Поттера, Star Wars, Оруелла, Youtube (у акков топ1 видео в 40 раз круче медианного) итп
- Часть будущего останется в тумане безотносительно объема данных

IV. Долгий путь к GenAI
- До gen AI ехали аж с перцептрона, а его открыли 70 лет назад. Хинтон про deep learning обобщил в 1986 (и получил Turing Award - а-ля Нобель), ImageNet в 2012, GPT2 в 2019..
- GenAI принес дипфейки, фрод, глюки, грязные и biased данные
- В генерации кода - работает, а в картинках итп - все стоит на недоплате роялти авторам, попавшим в datasets

V. AI это existential risk?
- AI паника - это башня из заблуждений и размытейших обобщений. По сути, все стоит на предпосылке, что AI якобы перешагнет некую планку автономности или superhuman intelligence. Но это противоречит всей истории технологий, они же всегда постепенно
- Кстати, уже лет 70 все прогнозы о AGI фэйлили
- Давайте лучше решать конкретные проблемы, а-ля как в инфобезопасности

VI. Почему AI не решит проблемы соцсетей
- 1. AI плохо модерирует, особенно - ложно ошибается 2. Произошла передача [цифрового] общественного пространства в руки неподотчетных частных компаний - свободу слова мочканули. Это с 2018го - Конгресс США атаковал FB, закон 1996г дезавуировали, и основным продуктом соцсетей стала модерация
- Twitter жестко модерируется и после покупки Маском (насилие, дети, hate speech итп). Юзеры могут и жаловаться, и само алгоритмами (у FB мало в каких странах модераторы, ТГ тут не уникален)
- Знание культурных контекстов на весь мир тоже сложно
- Причем апелляции в соцсетях/Uber/DoorDash итп оч. долго - и люди теряют работы/доходы
- Соцсетям плохо от целевых атак сетей государственных ботов (типа замена слов на что люди еще поймут, а алгоритмы уже нет)

VII. Причины мифов об AI
- Широкая общественность не в курсе, что в AI были и хайпы, и "зимы"
- Журналисты не успевают/не могут (они же не инженеры) чекать набросы бигтехов
- Богатые корпорации, без каких-либо стимулов к прозрачности, задавили академию в своих А) маркетинговых и Б) политических целях когда они говорят об AI, в тч ссылаясь на ненаучные “исследования”. Даже Киссинджера впрягли в пропаганду =)

VIII. Что дальше?
- Нужны правила, как фирмы могут рекламировать AI продукты. Особенно в predictive AI, где большинство софта не работает
- Главные даунсайды AI - в применении. И, кстати, основной спрос на AI панацею - от поломанных, неэффективных организаций, ищущих быстрые решения всего, расходуя ценные ресурсы
- Вас не удивляет, что бигтехи активно лоббируют регуляцию самих себя? =))



group-telegram.com/Victor_Osyka/532
Create:
Last Update:

AI Snake Oil - книга как бигтехи запугали мир, чтобы и больше заработать на AI, и монополизировать его. От ученых из Princeton/Netflix/Fb A.Narayanan и S.Kapoor. Snake oil - это панацея, мифическое лекарство от всего:

I. Интро
- Проблема, что 1) словом AI стали размыто называть что угодно 2) пользуясь oversell и непониманием людей - запугивают их. До ChatGPT же был Github Copilot и пофигу
- У AI все еще нет определения. 1) Что-то требующее от нас учебы или креативности + 2) Не код/правила, а неявная emergence + 3) Системы с некой автономностью
- Нужно различать 2 типа AI: generative (хорош вплоть до хайпа) и predictive (часто не работает)

II. Что не так с predictive AI?
- Мы всюду окружены системами оценки нас алгоритмами, но они фэйлят, и на Netflix это безобидно, а в анализе кандидатов, студентов, пациентов, сотрудников, подсудимых, заключенных итп - это критически влияющие на жизни "решения"
- Фирмы предиктивной аналитики НЕ тестят софт как в фарме (рандомизированные контролируемые испытания) и получается дичь
- И уж тем более не изучают последствия продажи их софта (в Австралии ложно обвинили в обогащении 400К получателей соцвыплат)

III. Можно ли предсказать будущее?
- Если сделать поправки на утечку данных в datasets, то топ ML прогнозы не лучше древних регрессий. Продавцы AI запредельно оверселлят + медиа разгоняют, а по факту - херово работает. FTC писали об обмане
- Причем рост данных (разведки и бигтехи хотели бы трекать каждое наше слово) не улучшает прогнозы про людей. И погоду, пандемии, карьеры и до твитов, Гарри Поттера, Star Wars, Оруелла, Youtube (у акков топ1 видео в 40 раз круче медианного) итп
- Часть будущего останется в тумане безотносительно объема данных

IV. Долгий путь к GenAI
- До gen AI ехали аж с перцептрона, а его открыли 70 лет назад. Хинтон про deep learning обобщил в 1986 (и получил Turing Award - а-ля Нобель), ImageNet в 2012, GPT2 в 2019..
- GenAI принес дипфейки, фрод, глюки, грязные и biased данные
- В генерации кода - работает, а в картинках итп - все стоит на недоплате роялти авторам, попавшим в datasets

V. AI это existential risk?
- AI паника - это башня из заблуждений и размытейших обобщений. По сути, все стоит на предпосылке, что AI якобы перешагнет некую планку автономности или superhuman intelligence. Но это противоречит всей истории технологий, они же всегда постепенно
- Кстати, уже лет 70 все прогнозы о AGI фэйлили
- Давайте лучше решать конкретные проблемы, а-ля как в инфобезопасности

VI. Почему AI не решит проблемы соцсетей
- 1. AI плохо модерирует, особенно - ложно ошибается 2. Произошла передача [цифрового] общественного пространства в руки неподотчетных частных компаний - свободу слова мочканули. Это с 2018го - Конгресс США атаковал FB, закон 1996г дезавуировали, и основным продуктом соцсетей стала модерация
- Twitter жестко модерируется и после покупки Маском (насилие, дети, hate speech итп). Юзеры могут и жаловаться, и само алгоритмами (у FB мало в каких странах модераторы, ТГ тут не уникален)
- Знание культурных контекстов на весь мир тоже сложно
- Причем апелляции в соцсетях/Uber/DoorDash итп оч. долго - и люди теряют работы/доходы
- Соцсетям плохо от целевых атак сетей государственных ботов (типа замена слов на что люди еще поймут, а алгоритмы уже нет)

VII. Причины мифов об AI
- Широкая общественность не в курсе, что в AI были и хайпы, и "зимы"
- Журналисты не успевают/не могут (они же не инженеры) чекать набросы бигтехов
- Богатые корпорации, без каких-либо стимулов к прозрачности, задавили академию в своих А) маркетинговых и Б) политических целях когда они говорят об AI, в тч ссылаясь на ненаучные “исследования”. Даже Киссинджера впрягли в пропаганду =)

VIII. Что дальше?
- Нужны правила, как фирмы могут рекламировать AI продукты. Особенно в predictive AI, где большинство софта не работает
- Главные даунсайды AI - в применении. И, кстати, основной спрос на AI панацею - от поломанных, неэффективных организаций, ищущих быстрые решения всего, расходуя ценные ресурсы
- Вас не удивляет, что бигтехи активно лоббируют регуляцию самих себя? =))

BY Victor Osyka, техноцивилизация




Share with your friend now:
group-telegram.com/Victor_Osyka/532

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The picture was mixed overseas. Hong Kong’s Hang Seng Index fell 1.6%, under pressure from U.S. regulatory scrutiny on New York-listed Chinese companies. Stocks were more buoyant in Europe, where Frankfurt’s DAX surged 1.4%. DFR Lab sent the image through Microsoft Azure's Face Verification program and found that it was "highly unlikely" that the person in the second photo was the same as the first woman. The fact-checker Logically AI also found the claim to be false. The woman, Olena Kurilo, was also captured in a video after the airstrike and shown to have the injuries. On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands. Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future.
from us


Telegram Victor Osyka, техноцивилизация
FROM American