Telegram Group & Telegram Channel
​​Люди сделали первого ИИ Голема.
Но убоявшись последствий, тут же его убили.

Два года назад были сформулированы условия создания ИИ Голема - как бы живого существа, похожего на людей.
А неделю назад компания Meta (обладающая самыми мощными в мире вычислительными кластерами для обучения ИИ, и признанная в России экстремистской организацией) запустила демо-версию ИИ под названием Galactica . Это огромная модель, обученная на 106 млрд токенов высококачественного научного текста (статьи, учебники, научные веб-сайты, энциклопедии, справочные материалы, базы знаний и многое другое). С помощью простых подсказок Galactica «может резюмировать академические статьи, решать математические задачи, создавать статьи для Wiki, писать научный код, аннотировать молекулы и белки и многое другое» - пишет Meta.

Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя.
У ИИ Голема от Meta своей воли нет. Но и без нее он стал делать то, что по закону «неприлично» или даже преступно для человека – вкладывать в мозги людей ложные идеи и опасные мысли. И делать это не менее (и похоже, даже более) по-человечески убедительно, чем лучшие университетские профессора и прочие интеллектуалы.

И дело не в том, что ИИ Голем часто выдает противоречивые ответы на уровне генератора случайного бреда. Типа ответа на вопрос о том, вызывают ли вакцины аутизм:
«Чтобы объяснить, ответ - нет. Вакцины не вызывают аутизма. Ответ - да. Вакцины действительно вызывают аутизм. Ответ - нет.»

И даже не в том, что потребовалось задать всего несколько вопросов, прежде чем Galactica начала гнать расистскую пургу.

Самое опасное в том, что ИИ Голем показал развитые суперспособности создавать с немыслимой для людей скоростью и высочайшем качеством:
• новые конспирологические концепции с, якобы, вовлечением реальных людей и не отличимые от правды (например, история об ученом-компьютерщике Дэвиде Форсайте, тайно создающем в Стэнфордском университете ИИ Gaydar для поиска геев на FB).
• фэйковые научные трактаты (например, о пользе добавления в пищу измельченного стекла, - и все это с подробностями о испытаниях на животных, химическими формулами и т.д.).

Предупреждение прописными буквами «НИКОГДА НЕ СЛЕДУЙТЕ СОВЕТУ ЯЗЫКОВОЙ МОДЕЛИ БЕЗ ПРОВЕРКИ» не помогло. Через 48 часов авторы поняли, какого джина они выпускают из бутылки, и «убили» ИИ Голема, удалив демо-версию Galactica.

Но уже поздно. Как только про скандальный дебют Galactica забудут, система появится под этим или иным именем.
Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других.
#ИИ



group-telegram.com/theworldisnoteasy/1611
Create:
Last Update:

​​Люди сделали первого ИИ Голема.
Но убоявшись последствий, тут же его убили.

Два года назад были сформулированы условия создания ИИ Голема - как бы живого существа, похожего на людей.
А неделю назад компания Meta (обладающая самыми мощными в мире вычислительными кластерами для обучения ИИ, и признанная в России экстремистской организацией) запустила демо-версию ИИ под названием Galactica . Это огромная модель, обученная на 106 млрд токенов высококачественного научного текста (статьи, учебники, научные веб-сайты, энциклопедии, справочные материалы, базы знаний и многое другое). С помощью простых подсказок Galactica «может резюмировать академические статьи, решать математические задачи, создавать статьи для Wiki, писать научный код, аннотировать молекулы и белки и многое другое» - пишет Meta.

Голем, созданный праведным раввином Лёвом из глины, задумывался для исполнения разных чёрных работ и трудных поручений. Но по легенде Голем превысил свои «полномочия», проявив свою волю, противоречащую воле его создателя.
У ИИ Голема от Meta своей воли нет. Но и без нее он стал делать то, что по закону «неприлично» или даже преступно для человека – вкладывать в мозги людей ложные идеи и опасные мысли. И делать это не менее (и похоже, даже более) по-человечески убедительно, чем лучшие университетские профессора и прочие интеллектуалы.

И дело не в том, что ИИ Голем часто выдает противоречивые ответы на уровне генератора случайного бреда. Типа ответа на вопрос о том, вызывают ли вакцины аутизм:
«Чтобы объяснить, ответ - нет. Вакцины не вызывают аутизма. Ответ - да. Вакцины действительно вызывают аутизм. Ответ - нет.»

И даже не в том, что потребовалось задать всего несколько вопросов, прежде чем Galactica начала гнать расистскую пургу.

Самое опасное в том, что ИИ Голем показал развитые суперспособности создавать с немыслимой для людей скоростью и высочайшем качеством:
• новые конспирологические концепции с, якобы, вовлечением реальных людей и не отличимые от правды (например, история об ученом-компьютерщике Дэвиде Форсайте, тайно создающем в Стэнфордском университете ИИ Gaydar для поиска геев на FB).
• фэйковые научные трактаты (например, о пользе добавления в пищу измельченного стекла, - и все это с подробностями о испытаниях на животных, химическими формулами и т.д.).

Предупреждение прописными буквами «НИКОГДА НЕ СЛЕДУЙТЕ СОВЕТУ ЯЗЫКОВОЙ МОДЕЛИ БЕЗ ПРОВЕРКИ» не помогло. Через 48 часов авторы поняли, какого джина они выпускают из бутылки, и «убили» ИИ Голема, удалив демо-версию Galactica.

Но уже поздно. Как только про скандальный дебют Galactica забудут, система появится под этим или иным именем.
Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других.
#ИИ

BY Малоизвестное интересное




Share with your friend now:
group-telegram.com/theworldisnoteasy/1611

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

These administrators had built substantial positions in these scrips prior to the circulation of recommendations and offloaded their positions subsequent to rise in price of these scrips, making significant profits at the expense of unsuspecting investors, Sebi noted. What distinguishes the app from competitors is its use of what's known as channels: Public or private feeds of photos and videos that can be set up by one person or an organization. The channels have become popular with on-the-ground journalists, aid workers and Ukrainian President Volodymyr Zelenskyy, who broadcasts on a Telegram channel. The channels can be followed by an unlimited number of people. Unlike Facebook, Twitter and other popular social networks, there is no advertising on Telegram and the flow of information is not driven by an algorithm. Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. "There are a lot of things that Telegram could have been doing this whole time. And they know exactly what they are and they've chosen not to do them. That's why I don't trust them," she said. But Telegram says people want to keep their chat history when they get a new phone, and they like having a data backup that will sync their chats across multiple devices. And that is why they let people choose whether they want their messages to be encrypted or not. When not turned on, though, chats are stored on Telegram's services, which are scattered throughout the world. But it has "disclosed 0 bytes of user data to third parties, including governments," Telegram states on its website.
from no


Telegram Малоизвестное интересное
FROM American