Telegram Group & Telegram Channel
Новые открытые языковые модели, критика OpenAI от бывшего сотрудника и большой отчёт об опасностях общего ИИ

Рассказываем, что произошло в мире ИИ за прошедшие две недели.

Qwen2 – новые лучшие открытые языковые модели

Компания Alibaba Group (владелица AliExpress, Taobao и ряда других площадок) представила второе поколение языковых моделей Qwen. Всего модель доступна в шести размерах: 0.5, 1.5, 7, 57 и 72 млрд параметров. Самая большая версия поддерживает 29 языков и по метрикам в основных тестах является лучшей на данный момент публичной доступной моделью. Все модели можно использовать в коммерческих целях.

Бывший сотрудник OpenAI рассказал о проблемах с безопасностью


Бывший исследователь OpenAI Даниэль Кокотайло, который занимался прогнозированием развития ИИ, дал интервью New York Times. Он рассказал об инцидентах внутри OpenAI, которые могут свидетельствовать о смещении фокуса с безопасного развития ИИ в пользу стремления победить в гонке за общим ИИ (он же AGI), способным решать широкий спектр задач не хуже или лучше человека.

По словам Даниэля, в 2022 году до релиза GPT-4 компания Microsoft (одна из главных инвесторов и партнёров OpenAI) дала доступ к модели пользователям из Индии до одобрения совета безопасности (Deployment Safety Board). В совет входили как сотрудники OpenAI, так и Microsoft. OpenAI не стала вступать в конфронтацию, опасаясь потери сотрудничество с Microsoft. До публикации этого интервью, Microsoft отрицала произошедшее, однако после подтвердила.

Что настораживает в решениях Сэма Альтмана

Опасения вызывает и намерение Сэма Альтмана, гендиректора OpenAI, привлечь существенные средства для разработки собственных вычислительных чипов, необходимых для обучения ИИ. Желание компании сильно увеличить вычислительные мощности может привести к резкому улучшению моделей, что противоречит политике компании, согласно которой ИИ должен развиваться постепенно.

Увольнение Сэма Альтмана из совета директоров и скорое возвращение его на пост в 2023 году усугубили ситуацию и ещё сильнее сместили фокус с безопасности. Многим из работников компании казалось, что увольнение Альтмана было мотивировано желанием правления замедлить разработку моделей в целях безопасности, против чего якобы и выступал Альтман. Такое представление о случившемся сильно поляризовало настроения в компании. Несколько недель назад ключевые сотрудники команды, ответственной за исследования способов контроля ИИ, ушли из компании.

Цена критики в OpenAI

Даниэль также рассказал, что OpenAI вынуждает подписывать при увольнении соглашение, запрещающее критиковать компанию. В случае неподписания, сотрудник лишается опционов. Сам Даниэль отказался подписывать документ и лишился опционов стоимость 1.7 миллионов долларов.

После обнародования этих сведений Сэм Альтман вскоре заявил, что не знал о существовании этой практики и что отныне она прекращена.

Несколько бывших и нынешних сотрудников OpenAI, включая Даниэля, сформировали группу Whistle-Blowers (от английского — осведомителей). По задумке группа должна обеспечить исследователей и инженеров возможностью анонимно информировать регуляторов о своих опасениях касательно потенциальных рисках, связанных с ИИ.

Отчёт о будущем ИИ и сопутствующих рисках

Леопольд Ашенбреннер, бывший исследователь OpenAI, выпустил 165-страничный отчёт, в котором описывает свои прогнозы касательно развития общего искусственного интеллекта, а также риски, с которыми столкнётся человечество после его появления, включая политические. 

По мнению исследователя, появление общего ИИ может произойти уже 2027 году. Далее благодаря этому произойдёт автоматизация исследований в области машинного обучения, что ускорит появление ИИ, который сможет решать задачи лучше, чем человек. Рост спроса на вычислительные ресурсы приведёт к увеличению вложений в энергетический сектор, разработку новых чипов и построение новых суперкомпьютеров. 

Появление ИИ, превосходящего по когнитивным способностям человека, потребует оперативное решение задачи контроля беспрецедентно продвинутой и сложной системой.

🤖 «Системный Блокъ» @sysblok
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/sysblok/941
Create:
Last Update:

Новые открытые языковые модели, критика OpenAI от бывшего сотрудника и большой отчёт об опасностях общего ИИ

Рассказываем, что произошло в мире ИИ за прошедшие две недели.

Qwen2 – новые лучшие открытые языковые модели

Компания Alibaba Group (владелица AliExpress, Taobao и ряда других площадок) представила второе поколение языковых моделей Qwen. Всего модель доступна в шести размерах: 0.5, 1.5, 7, 57 и 72 млрд параметров. Самая большая версия поддерживает 29 языков и по метрикам в основных тестах является лучшей на данный момент публичной доступной моделью. Все модели можно использовать в коммерческих целях.

Бывший сотрудник OpenAI рассказал о проблемах с безопасностью


Бывший исследователь OpenAI Даниэль Кокотайло, который занимался прогнозированием развития ИИ, дал интервью New York Times. Он рассказал об инцидентах внутри OpenAI, которые могут свидетельствовать о смещении фокуса с безопасного развития ИИ в пользу стремления победить в гонке за общим ИИ (он же AGI), способным решать широкий спектр задач не хуже или лучше человека.

По словам Даниэля, в 2022 году до релиза GPT-4 компания Microsoft (одна из главных инвесторов и партнёров OpenAI) дала доступ к модели пользователям из Индии до одобрения совета безопасности (Deployment Safety Board). В совет входили как сотрудники OpenAI, так и Microsoft. OpenAI не стала вступать в конфронтацию, опасаясь потери сотрудничество с Microsoft. До публикации этого интервью, Microsoft отрицала произошедшее, однако после подтвердила.

Что настораживает в решениях Сэма Альтмана

Опасения вызывает и намерение Сэма Альтмана, гендиректора OpenAI, привлечь существенные средства для разработки собственных вычислительных чипов, необходимых для обучения ИИ. Желание компании сильно увеличить вычислительные мощности может привести к резкому улучшению моделей, что противоречит политике компании, согласно которой ИИ должен развиваться постепенно.

Увольнение Сэма Альтмана из совета директоров и скорое возвращение его на пост в 2023 году усугубили ситуацию и ещё сильнее сместили фокус с безопасности. Многим из работников компании казалось, что увольнение Альтмана было мотивировано желанием правления замедлить разработку моделей в целях безопасности, против чего якобы и выступал Альтман. Такое представление о случившемся сильно поляризовало настроения в компании. Несколько недель назад ключевые сотрудники команды, ответственной за исследования способов контроля ИИ, ушли из компании.

Цена критики в OpenAI

Даниэль также рассказал, что OpenAI вынуждает подписывать при увольнении соглашение, запрещающее критиковать компанию. В случае неподписания, сотрудник лишается опционов. Сам Даниэль отказался подписывать документ и лишился опционов стоимость 1.7 миллионов долларов.

После обнародования этих сведений Сэм Альтман вскоре заявил, что не знал о существовании этой практики и что отныне она прекращена.

Несколько бывших и нынешних сотрудников OpenAI, включая Даниэля, сформировали группу Whistle-Blowers (от английского — осведомителей). По задумке группа должна обеспечить исследователей и инженеров возможностью анонимно информировать регуляторов о своих опасениях касательно потенциальных рисках, связанных с ИИ.

Отчёт о будущем ИИ и сопутствующих рисках

Леопольд Ашенбреннер, бывший исследователь OpenAI, выпустил 165-страничный отчёт, в котором описывает свои прогнозы касательно развития общего искусственного интеллекта, а также риски, с которыми столкнётся человечество после его появления, включая политические. 

По мнению исследователя, появление общего ИИ может произойти уже 2027 году. Далее благодаря этому произойдёт автоматизация исследований в области машинного обучения, что ускорит появление ИИ, который сможет решать задачи лучше, чем человек. Рост спроса на вычислительные ресурсы приведёт к увеличению вложений в энергетический сектор, разработку новых чипов и построение новых суперкомпьютеров. 

Появление ИИ, превосходящего по когнитивным способностям человека, потребует оперативное решение задачи контроля беспрецедентно продвинутой и сложной системой.

🤖 «Системный Блокъ» @sysblok

BY Системный Блокъ


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/sysblok/941

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"There is a significant risk of insider threat or hacking of Telegram systems that could expose all of these chats to the Russian government," said Eva Galperin with the Electronic Frontier Foundation, which has called for Telegram to improve its privacy practices. The Russian invasion of Ukraine has been a driving force in markets for the past few weeks. To that end, when files are actively downloading, a new icon now appears in the Search bar that users can tap to view and manage downloads, pause and resume all downloads or just individual items, and select one to increase its priority or view it in a chat. The picture was mixed overseas. Hong Kong’s Hang Seng Index fell 1.6%, under pressure from U.S. regulatory scrutiny on New York-listed Chinese companies. Stocks were more buoyant in Europe, where Frankfurt’s DAX surged 1.4%. The SC urges the public to refer to the SC’s I nvestor Alert List before investing. The list contains details of unauthorised websites, investment products, companies and individuals. Members of the public who suspect that they have been approached by unauthorised firms or individuals offering schemes that promise unrealistic returns
from ru


Telegram Системный Блокъ
FROM American