Notice: file_put_contents(): Write of 1445 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 12288 of 13733 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
⅁‌‌‌‌ garage.digital | Telegram Webview: againstthedigital/75 -
Telegram Group & Telegram Channel
В августовском номере журнала e-flux вышла новая статья философа Юка Хуэя — «ChatGPT, или эсхатология машин». В современной культуре — от журналистских статей до научных монографий — осмысление алгоритмов и ИИ спотыкается об эсхатологическое мышление: оно предполагает, что эти технологии приближают конец света. Хуэй пишет, что эсхатологические мифы не только не продвигают нас в понимании природы ИИ — они попросту вредны, и поэтому от них стоит отказаться. Вместо этого философ предлагает подумать о том, как можно сотрудничать с алгоритмами — и как они могут служить людям, а не логике рынка и власть имущим.

Для того чтобы понять сущность алгоритмов, нужно отказаться от упрощенного, чисто механистического взгляда на ИИ. Нейросети — это не просто статистические машины для обнаружения паттернов. Это не механические машины, просто следующие инструкции; это машины кибернетические. Центральное понятие для кибернетики как научной дисциплины — петля обратной связи: это значит, что поведение машины не задается оператором как неизменное, но, напротив, может корректировать само себя.

Ранние технологии, позволяющие упростить (а затем и автоматизировать) труд оставляли задачу по организации информации за человеком. Грубо говоря, крестьянин сам решает, как именно и в какое время ему применять плуг. Но чем дольше существовали машины, тем в большей мере они брали задачу по организации информации на себя: сейчас мы уже в той точке, когда ChatGPT ориентируется в информационном пространстве гораздо лучше человека.

Считается, что способность к рефлексии — это исключительно человеческое свойство: якобы и это делает людей людьми. Но на деле кибернетические машины тоже способны к рефлексии — и даже к мышлению. Исследователи ИИ делают вид, что машинного мышления не существует, как и машинной семантики; но это — лишь следствие антропоцентризма. На деле у ИИ гораздо больше агентности, чем может показаться на первый взгляд. Ведь даже процедуры установки истины, структурирующие научное знание, напрямую зависят от технологий: петля обратной связи есть и в области «человеческого» знания.

Хуэй утверждает, что нам нужно переосмыслить сами отношения человек машина: потенциал ИИ можно направить против повторяющихся ритмов купли-продажи, на которых строится цифровой капитализм, и даже — против циклического повторения образов прошлого в постмодернистской культуре. Вот три предпосылки для настоящего освобождения воображения — которые помогут и эмансипировать современную теорию ИИ:

1. Вместо того чтобы ограничивать развитие ИИ, нужно отказаться от антропоцентричного взгляда на технологию, и придумать новую культуру протезирования — то есть модели сотрудничества человека с машиной, а не эксплуатации одного другим.
2. Вместо того чтобы и дальше мистифицировать отношения человека и машины, исследователям стоит тратить силы на постижение машинных реальност-ей — и того, как они соотносятся с множественными человеческими реальностями. Иначе говоря — как машины могут служить поддержанию био- и техно-разнообразия?
3. Следует освободиться от эсхатологического понимания истории в целом: грубо говоря, нет никакого конца. Это откроет новые перспективы сожительства с машинами — и поможет выработать новую машинную этику.



group-telegram.com/againstthedigital/75
Create:
Last Update:

В августовском номере журнала e-flux вышла новая статья философа Юка Хуэя — «ChatGPT, или эсхатология машин». В современной культуре — от журналистских статей до научных монографий — осмысление алгоритмов и ИИ спотыкается об эсхатологическое мышление: оно предполагает, что эти технологии приближают конец света. Хуэй пишет, что эсхатологические мифы не только не продвигают нас в понимании природы ИИ — они попросту вредны, и поэтому от них стоит отказаться. Вместо этого философ предлагает подумать о том, как можно сотрудничать с алгоритмами — и как они могут служить людям, а не логике рынка и власть имущим.

Для того чтобы понять сущность алгоритмов, нужно отказаться от упрощенного, чисто механистического взгляда на ИИ. Нейросети — это не просто статистические машины для обнаружения паттернов. Это не механические машины, просто следующие инструкции; это машины кибернетические. Центральное понятие для кибернетики как научной дисциплины — петля обратной связи: это значит, что поведение машины не задается оператором как неизменное, но, напротив, может корректировать само себя.

Ранние технологии, позволяющие упростить (а затем и автоматизировать) труд оставляли задачу по организации информации за человеком. Грубо говоря, крестьянин сам решает, как именно и в какое время ему применять плуг. Но чем дольше существовали машины, тем в большей мере они брали задачу по организации информации на себя: сейчас мы уже в той точке, когда ChatGPT ориентируется в информационном пространстве гораздо лучше человека.

Считается, что способность к рефлексии — это исключительно человеческое свойство: якобы и это делает людей людьми. Но на деле кибернетические машины тоже способны к рефлексии — и даже к мышлению. Исследователи ИИ делают вид, что машинного мышления не существует, как и машинной семантики; но это — лишь следствие антропоцентризма. На деле у ИИ гораздо больше агентности, чем может показаться на первый взгляд. Ведь даже процедуры установки истины, структурирующие научное знание, напрямую зависят от технологий: петля обратной связи есть и в области «человеческого» знания.

Хуэй утверждает, что нам нужно переосмыслить сами отношения человек машина: потенциал ИИ можно направить против повторяющихся ритмов купли-продажи, на которых строится цифровой капитализм, и даже — против циклического повторения образов прошлого в постмодернистской культуре. Вот три предпосылки для настоящего освобождения воображения — которые помогут и эмансипировать современную теорию ИИ:

1. Вместо того чтобы ограничивать развитие ИИ, нужно отказаться от антропоцентричного взгляда на технологию, и придумать новую культуру протезирования — то есть модели сотрудничества человека с машиной, а не эксплуатации одного другим.
2. Вместо того чтобы и дальше мистифицировать отношения человека и машины, исследователям стоит тратить силы на постижение машинных реальност-ей — и того, как они соотносятся с множественными человеческими реальностями. Иначе говоря — как машины могут служить поддержанию био- и техно-разнообразия?
3. Следует освободиться от эсхатологического понимания истории в целом: грубо говоря, нет никакого конца. Это откроет новые перспективы сожительства с машинами — и поможет выработать новую машинную этику.

BY ⅁‌‌‌‌ garage.digital




Share with your friend now:
group-telegram.com/againstthedigital/75

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

As such, the SC would like to remind investors to always exercise caution when evaluating investment opportunities, especially those promising unrealistically high returns with little or no risk. Investors should also never deposit money into someone’s personal bank account if instructed. If you initiate a Secret Chat, however, then these communications are end-to-end encrypted and are tied to the device you are using. That means it’s less convenient to access them across multiple platforms, but you are at far less risk of snooping. Back in the day, Secret Chats received some praise from the EFF, but the fact that its standard system isn’t as secure earned it some criticism. If you’re looking for something that is considered more reliable by privacy advocates, then Signal is the EFF’s preferred platform, although that too is not without some caveats. And while money initially moved into stocks in the morning, capital moved out of safe-haven assets. The price of the 10-year Treasury note fell Friday, sending its yield up to 2% from a March closing low of 1.73%. Some privacy experts say Telegram is not secure enough Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today."
from ua


Telegram ⅁‌‌‌‌ garage.digital
FROM American