Telegram Group & Telegram Channel
А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.



group-telegram.com/roguelike_theory/690
Create:
Last Update:

А вы когда-нибудь изображали чат-ботов? Датский медиа-исследователь Мальте Эрслев называет это бот-мимикрией: на Reddit есть целый сабфорум, где пользователи пишут от лица глуповатых ИИ-моделей. Притворяться роботом — это значит и упражняться в медиа-идиотизме, и писать теорию ИИ наоборот, уверен автор. Ведь миметические исследования алгоритмов начинаются с того, как их видит интернет культура — и только затем приходят к свойствам самой технологии.

Боты в сети упорно мимикрируют под нас — хотя мы точно знаем, что большие языковые модели устроены иначе, чем мы сами. Чем больше они втираются к нам в доверие, тем больше поведенческих данных собирают — и тем лучше нас узнают. Проще говоря, подражать другому — значит не превратиться в него, а лучше его узнать. Но что если сделать все наоборот, и самим поиграть в роботов?

Эрслев уверен: это вполне валидный способ узнать что-то об ИИ. Особенно если вспомнить, что многие алгоритмы проприетарны — и пользователи вряд ли смогут узнать точно, как они работают. Ведь чтобы писать от лица бота, сначала нужно понять, какие принципы стоят за его письмом.

Другой вопрос в том, почему идея мимикрии занимает такое прочное место в нашем техносоциальном воображении. Знаменитый тест Тьюринга как раз построен на подражании: сможет ли машина притвориться человеком — и так обмануть оператора? Хотя он был придуман еще в 1950 году, разработчики ИИ и сегодня используют его для того, чтобы продемонстрировать производительность новых моделей.

Проблема в том, что, по задумке самого же Тьюринга, его метод обнаруживает не некий абстрактный интеллект. В своей знаменитой статье «Вычислительные машины и разум» он намеренно уходит от попытки дать «мышлению» философское определение. Скорее, тест Тьюринга показывает, может ли машина совершать действия, внешне неотличимые от мышления в человеческом понимании.

Разработчики дисциплинируют машины — чтобы они вели себя, как люди. Но у этого процесса неизбежно есть и обратная сторона: машины начинают дисциплинировать пользователей. Выйти из этой петли можно, если повернуть отношения мимикрии в обратном направлении. Играть в роботов — значит ставить под вопрос культурные тропы о машинах и машинном. И, потенциально, — представить иные, не основанные на мимикрии сборки машинного и человеческого.

BY roguelike theory




Share with your friend now:
group-telegram.com/roguelike_theory/690

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. Pavel Durov, a billionaire who embraces an all-black wardrobe and is often compared to the character Neo from "the Matrix," funds Telegram through his personal wealth and debt financing. And despite being one of the world's most popular tech companies, Telegram reportedly has only about 30 employees who defer to Durov for most major decisions about the platform. NEWS Telegram does offer end-to-end encrypted communications through Secret Chats, but this is not the default setting. Standard conversations use the MTProto method, enabling server-client encryption but with them stored on the server for ease-of-access. This makes using Telegram across multiple devices simple, but also means that the regular Telegram chats you’re having with folks are not as secure as you may believe. "He has to start being more proactive and to find a real solution to this situation, not stay in standby without interfering. It's a very irresponsible position from the owner of Telegram," she said.
from us


Telegram roguelike theory
FROM American