Notice: file_put_contents(): Write of 2851 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 12288 of 15139 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
Системный Блокъ | Telegram Webview: sysblok/941 -
Telegram Group & Telegram Channel
Новые открытые языковые модели, критика OpenAI от бывшего сотрудника и большой отчёт об опасностях общего ИИ

Рассказываем, что произошло в мире ИИ за прошедшие две недели.

Qwen2 – новые лучшие открытые языковые модели

Компания Alibaba Group (владелица AliExpress, Taobao и ряда других площадок) представила второе поколение языковых моделей Qwen. Всего модель доступна в шести размерах: 0.5, 1.5, 7, 57 и 72 млрд параметров. Самая большая версия поддерживает 29 языков и по метрикам в основных тестах является лучшей на данный момент публичной доступной моделью. Все модели можно использовать в коммерческих целях.

Бывший сотрудник OpenAI рассказал о проблемах с безопасностью


Бывший исследователь OpenAI Даниэль Кокотайло, который занимался прогнозированием развития ИИ, дал интервью New York Times. Он рассказал об инцидентах внутри OpenAI, которые могут свидетельствовать о смещении фокуса с безопасного развития ИИ в пользу стремления победить в гонке за общим ИИ (он же AGI), способным решать широкий спектр задач не хуже или лучше человека.

По словам Даниэля, в 2022 году до релиза GPT-4 компания Microsoft (одна из главных инвесторов и партнёров OpenAI) дала доступ к модели пользователям из Индии до одобрения совета безопасности (Deployment Safety Board). В совет входили как сотрудники OpenAI, так и Microsoft. OpenAI не стала вступать в конфронтацию, опасаясь потери сотрудничество с Microsoft. До публикации этого интервью, Microsoft отрицала произошедшее, однако после подтвердила.

Что настораживает в решениях Сэма Альтмана

Опасения вызывает и намерение Сэма Альтмана, гендиректора OpenAI, привлечь существенные средства для разработки собственных вычислительных чипов, необходимых для обучения ИИ. Желание компании сильно увеличить вычислительные мощности может привести к резкому улучшению моделей, что противоречит политике компании, согласно которой ИИ должен развиваться постепенно.

Увольнение Сэма Альтмана из совета директоров и скорое возвращение его на пост в 2023 году усугубили ситуацию и ещё сильнее сместили фокус с безопасности. Многим из работников компании казалось, что увольнение Альтмана было мотивировано желанием правления замедлить разработку моделей в целях безопасности, против чего якобы и выступал Альтман. Такое представление о случившемся сильно поляризовало настроения в компании. Несколько недель назад ключевые сотрудники команды, ответственной за исследования способов контроля ИИ, ушли из компании.

Цена критики в OpenAI

Даниэль также рассказал, что OpenAI вынуждает подписывать при увольнении соглашение, запрещающее критиковать компанию. В случае неподписания, сотрудник лишается опционов. Сам Даниэль отказался подписывать документ и лишился опционов стоимость 1.7 миллионов долларов.

После обнародования этих сведений Сэм Альтман вскоре заявил, что не знал о существовании этой практики и что отныне она прекращена.

Несколько бывших и нынешних сотрудников OpenAI, включая Даниэля, сформировали группу Whistle-Blowers (от английского — осведомителей). По задумке группа должна обеспечить исследователей и инженеров возможностью анонимно информировать регуляторов о своих опасениях касательно потенциальных рисках, связанных с ИИ.

Отчёт о будущем ИИ и сопутствующих рисках

Леопольд Ашенбреннер, бывший исследователь OpenAI, выпустил 165-страничный отчёт, в котором описывает свои прогнозы касательно развития общего искусственного интеллекта, а также риски, с которыми столкнётся человечество после его появления, включая политические. 

По мнению исследователя, появление общего ИИ может произойти уже 2027 году. Далее благодаря этому произойдёт автоматизация исследований в области машинного обучения, что ускорит появление ИИ, который сможет решать задачи лучше, чем человек. Рост спроса на вычислительные ресурсы приведёт к увеличению вложений в энергетический сектор, разработку новых чипов и построение новых суперкомпьютеров. 

Появление ИИ, превосходящего по когнитивным способностям человека, потребует оперативное решение задачи контроля беспрецедентно продвинутой и сложной системой.

🤖 «Системный Блокъ» @sysblok
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/sysblok/941
Create:
Last Update:

Новые открытые языковые модели, критика OpenAI от бывшего сотрудника и большой отчёт об опасностях общего ИИ

Рассказываем, что произошло в мире ИИ за прошедшие две недели.

Qwen2 – новые лучшие открытые языковые модели

Компания Alibaba Group (владелица AliExpress, Taobao и ряда других площадок) представила второе поколение языковых моделей Qwen. Всего модель доступна в шести размерах: 0.5, 1.5, 7, 57 и 72 млрд параметров. Самая большая версия поддерживает 29 языков и по метрикам в основных тестах является лучшей на данный момент публичной доступной моделью. Все модели можно использовать в коммерческих целях.

Бывший сотрудник OpenAI рассказал о проблемах с безопасностью


Бывший исследователь OpenAI Даниэль Кокотайло, который занимался прогнозированием развития ИИ, дал интервью New York Times. Он рассказал об инцидентах внутри OpenAI, которые могут свидетельствовать о смещении фокуса с безопасного развития ИИ в пользу стремления победить в гонке за общим ИИ (он же AGI), способным решать широкий спектр задач не хуже или лучше человека.

По словам Даниэля, в 2022 году до релиза GPT-4 компания Microsoft (одна из главных инвесторов и партнёров OpenAI) дала доступ к модели пользователям из Индии до одобрения совета безопасности (Deployment Safety Board). В совет входили как сотрудники OpenAI, так и Microsoft. OpenAI не стала вступать в конфронтацию, опасаясь потери сотрудничество с Microsoft. До публикации этого интервью, Microsoft отрицала произошедшее, однако после подтвердила.

Что настораживает в решениях Сэма Альтмана

Опасения вызывает и намерение Сэма Альтмана, гендиректора OpenAI, привлечь существенные средства для разработки собственных вычислительных чипов, необходимых для обучения ИИ. Желание компании сильно увеличить вычислительные мощности может привести к резкому улучшению моделей, что противоречит политике компании, согласно которой ИИ должен развиваться постепенно.

Увольнение Сэма Альтмана из совета директоров и скорое возвращение его на пост в 2023 году усугубили ситуацию и ещё сильнее сместили фокус с безопасности. Многим из работников компании казалось, что увольнение Альтмана было мотивировано желанием правления замедлить разработку моделей в целях безопасности, против чего якобы и выступал Альтман. Такое представление о случившемся сильно поляризовало настроения в компании. Несколько недель назад ключевые сотрудники команды, ответственной за исследования способов контроля ИИ, ушли из компании.

Цена критики в OpenAI

Даниэль также рассказал, что OpenAI вынуждает подписывать при увольнении соглашение, запрещающее критиковать компанию. В случае неподписания, сотрудник лишается опционов. Сам Даниэль отказался подписывать документ и лишился опционов стоимость 1.7 миллионов долларов.

После обнародования этих сведений Сэм Альтман вскоре заявил, что не знал о существовании этой практики и что отныне она прекращена.

Несколько бывших и нынешних сотрудников OpenAI, включая Даниэля, сформировали группу Whistle-Blowers (от английского — осведомителей). По задумке группа должна обеспечить исследователей и инженеров возможностью анонимно информировать регуляторов о своих опасениях касательно потенциальных рисках, связанных с ИИ.

Отчёт о будущем ИИ и сопутствующих рисках

Леопольд Ашенбреннер, бывший исследователь OpenAI, выпустил 165-страничный отчёт, в котором описывает свои прогнозы касательно развития общего искусственного интеллекта, а также риски, с которыми столкнётся человечество после его появления, включая политические. 

По мнению исследователя, появление общего ИИ может произойти уже 2027 году. Далее благодаря этому произойдёт автоматизация исследований в области машинного обучения, что ускорит появление ИИ, который сможет решать задачи лучше, чем человек. Рост спроса на вычислительные ресурсы приведёт к увеличению вложений в энергетический сектор, разработку новых чипов и построение новых суперкомпьютеров. 

Появление ИИ, превосходящего по когнитивным способностям человека, потребует оперативное решение задачи контроля беспрецедентно продвинутой и сложной системой.

🤖 «Системный Блокъ» @sysblok

BY Системный Блокъ


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/sysblok/941

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Recently, Durav wrote on his Telegram channel that users' right to privacy, in light of the war in Ukraine, is "sacred, now more than ever." The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. Telegram was co-founded by Pavel and Nikolai Durov, the brothers who had previously created VKontakte. VK is Russia’s equivalent of Facebook, a social network used for public and private messaging, audio and video sharing as well as online gaming. In January, SimpleWeb reported that VK was Russia’s fourth most-visited website, after Yandex, YouTube and Google’s Russian-language homepage. In 2016, Forbes’ Michael Solomon described Pavel Durov (pictured, below) as the “Mark Zuckerberg of Russia.” Lastly, the web previews of t.me links have been given a new look, adding chat backgrounds and design elements from the fully-features Telegram Web client. He said that since his platform does not have the capacity to check all channels, it may restrict some in Russia and Ukraine "for the duration of the conflict," but then reversed course hours later after many users complained that Telegram was an important source of information.
from us


Telegram Системный Блокъ
FROM American