Telegram Group & Telegram Channel
А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.



group-telegram.com/roguelike_theory/690
Create:
Last Update:

А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.

BY roguelike theory




Share with your friend now:
group-telegram.com/roguelike_theory/690

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The regulator took order for the search and seizure operation from Judge Purushottam B Jadhav, Sebi Special Judge / Additional Sessions Judge. In 2014, Pavel Durov fled the country after allies of the Kremlin took control of the social networking site most know just as VK. Russia's intelligence agency had asked Durov to turn over the data of anti-Kremlin protesters. Durov refused to do so. "Russians are really disconnected from the reality of what happening to their country," Andrey said. "So Telegram has become essential for understanding what's going on to the Russian-speaking world." The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. The Dow Jones Industrial Average fell 230 points, or 0.7%. Meanwhile, the S&P 500 and the Nasdaq Composite dropped 1.3% and 2.2%, respectively. All three indexes began the day with gains before selling off.
from us


Telegram roguelike theory
FROM American