Telegram Group & Telegram Channel
Новые открытые языковые модели, критика OpenAI от бывшего сотрудника и большой отчёт об опасностях общего ИИ

Рассказываем, что произошло в мире ИИ за прошедшие две недели.

Qwen2 – новые лучшие открытые языковые модели

Компания Alibaba Group (владелица AliExpress, Taobao и ряда других площадок) представила второе поколение языковых моделей Qwen. Всего модель доступна в шести размерах: 0.5, 1.5, 7, 57 и 72 млрд параметров. Самая большая версия поддерживает 29 языков и по метрикам в основных тестах является лучшей на данный момент публичной доступной моделью. Все модели можно использовать в коммерческих целях.

Бывший сотрудник OpenAI рассказал о проблемах с безопасностью


Бывший исследователь OpenAI Даниэль Кокотайло, который занимался прогнозированием развития ИИ, дал интервью New York Times. Он рассказал об инцидентах внутри OpenAI, которые могут свидетельствовать о смещении фокуса с безопасного развития ИИ в пользу стремления победить в гонке за общим ИИ (он же AGI), способным решать широкий спектр задач не хуже или лучше человека.

По словам Даниэля, в 2022 году до релиза GPT-4 компания Microsoft (одна из главных инвесторов и партнёров OpenAI) дала доступ к модели пользователям из Индии до одобрения совета безопасности (Deployment Safety Board). В совет входили как сотрудники OpenAI, так и Microsoft. OpenAI не стала вступать в конфронтацию, опасаясь потери сотрудничество с Microsoft. До публикации этого интервью, Microsoft отрицала произошедшее, однако после подтвердила.

Что настораживает в решениях Сэма Альтмана

Опасения вызывает и намерение Сэма Альтмана, гендиректора OpenAI, привлечь существенные средства для разработки собственных вычислительных чипов, необходимых для обучения ИИ. Желание компании сильно увеличить вычислительные мощности может привести к резкому улучшению моделей, что противоречит политике компании, согласно которой ИИ должен развиваться постепенно.

Увольнение Сэма Альтмана из совета директоров и скорое возвращение его на пост в 2023 году усугубили ситуацию и ещё сильнее сместили фокус с безопасности. Многим из работников компании казалось, что увольнение Альтмана было мотивировано желанием правления замедлить разработку моделей в целях безопасности, против чего якобы и выступал Альтман. Такое представление о случившемся сильно поляризовало настроения в компании. Несколько недель назад ключевые сотрудники команды, ответственной за исследования способов контроля ИИ, ушли из компании.

Цена критики в OpenAI

Даниэль также рассказал, что OpenAI вынуждает подписывать при увольнении соглашение, запрещающее критиковать компанию. В случае неподписания, сотрудник лишается опционов. Сам Даниэль отказался подписывать документ и лишился опционов стоимость 1.7 миллионов долларов.

После обнародования этих сведений Сэм Альтман вскоре заявил, что не знал о существовании этой практики и что отныне она прекращена.

Несколько бывших и нынешних сотрудников OpenAI, включая Даниэля, сформировали группу Whistle-Blowers (от английского — осведомителей). По задумке группа должна обеспечить исследователей и инженеров возможностью анонимно информировать регуляторов о своих опасениях касательно потенциальных рисках, связанных с ИИ.

Отчёт о будущем ИИ и сопутствующих рисках

Леопольд Ашенбреннер, бывший исследователь OpenAI, выпустил 165-страничный отчёт, в котором описывает свои прогнозы касательно развития общего искусственного интеллекта, а также риски, с которыми столкнётся человечество после его появления, включая политические. 

По мнению исследователя, появление общего ИИ может произойти уже 2027 году. Далее благодаря этому произойдёт автоматизация исследований в области машинного обучения, что ускорит появление ИИ, который сможет решать задачи лучше, чем человек. Рост спроса на вычислительные ресурсы приведёт к увеличению вложений в энергетический сектор, разработку новых чипов и построение новых суперкомпьютеров. 

Появление ИИ, превосходящего по когнитивным способностям человека, потребует оперативное решение задачи контроля беспрецедентно продвинутой и сложной системой.

🤖 «Системный Блокъ» @sysblok
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/sysblok/941
Create:
Last Update:

Новые открытые языковые модели, критика OpenAI от бывшего сотрудника и большой отчёт об опасностях общего ИИ

Рассказываем, что произошло в мире ИИ за прошедшие две недели.

Qwen2 – новые лучшие открытые языковые модели

Компания Alibaba Group (владелица AliExpress, Taobao и ряда других площадок) представила второе поколение языковых моделей Qwen. Всего модель доступна в шести размерах: 0.5, 1.5, 7, 57 и 72 млрд параметров. Самая большая версия поддерживает 29 языков и по метрикам в основных тестах является лучшей на данный момент публичной доступной моделью. Все модели можно использовать в коммерческих целях.

Бывший сотрудник OpenAI рассказал о проблемах с безопасностью


Бывший исследователь OpenAI Даниэль Кокотайло, который занимался прогнозированием развития ИИ, дал интервью New York Times. Он рассказал об инцидентах внутри OpenAI, которые могут свидетельствовать о смещении фокуса с безопасного развития ИИ в пользу стремления победить в гонке за общим ИИ (он же AGI), способным решать широкий спектр задач не хуже или лучше человека.

По словам Даниэля, в 2022 году до релиза GPT-4 компания Microsoft (одна из главных инвесторов и партнёров OpenAI) дала доступ к модели пользователям из Индии до одобрения совета безопасности (Deployment Safety Board). В совет входили как сотрудники OpenAI, так и Microsoft. OpenAI не стала вступать в конфронтацию, опасаясь потери сотрудничество с Microsoft. До публикации этого интервью, Microsoft отрицала произошедшее, однако после подтвердила.

Что настораживает в решениях Сэма Альтмана

Опасения вызывает и намерение Сэма Альтмана, гендиректора OpenAI, привлечь существенные средства для разработки собственных вычислительных чипов, необходимых для обучения ИИ. Желание компании сильно увеличить вычислительные мощности может привести к резкому улучшению моделей, что противоречит политике компании, согласно которой ИИ должен развиваться постепенно.

Увольнение Сэма Альтмана из совета директоров и скорое возвращение его на пост в 2023 году усугубили ситуацию и ещё сильнее сместили фокус с безопасности. Многим из работников компании казалось, что увольнение Альтмана было мотивировано желанием правления замедлить разработку моделей в целях безопасности, против чего якобы и выступал Альтман. Такое представление о случившемся сильно поляризовало настроения в компании. Несколько недель назад ключевые сотрудники команды, ответственной за исследования способов контроля ИИ, ушли из компании.

Цена критики в OpenAI

Даниэль также рассказал, что OpenAI вынуждает подписывать при увольнении соглашение, запрещающее критиковать компанию. В случае неподписания, сотрудник лишается опционов. Сам Даниэль отказался подписывать документ и лишился опционов стоимость 1.7 миллионов долларов.

После обнародования этих сведений Сэм Альтман вскоре заявил, что не знал о существовании этой практики и что отныне она прекращена.

Несколько бывших и нынешних сотрудников OpenAI, включая Даниэля, сформировали группу Whistle-Blowers (от английского — осведомителей). По задумке группа должна обеспечить исследователей и инженеров возможностью анонимно информировать регуляторов о своих опасениях касательно потенциальных рисках, связанных с ИИ.

Отчёт о будущем ИИ и сопутствующих рисках

Леопольд Ашенбреннер, бывший исследователь OpenAI, выпустил 165-страничный отчёт, в котором описывает свои прогнозы касательно развития общего искусственного интеллекта, а также риски, с которыми столкнётся человечество после его появления, включая политические. 

По мнению исследователя, появление общего ИИ может произойти уже 2027 году. Далее благодаря этому произойдёт автоматизация исследований в области машинного обучения, что ускорит появление ИИ, который сможет решать задачи лучше, чем человек. Рост спроса на вычислительные ресурсы приведёт к увеличению вложений в энергетический сектор, разработку новых чипов и построение новых суперкомпьютеров. 

Появление ИИ, превосходящего по когнитивным способностям человека, потребует оперативное решение задачи контроля беспрецедентно продвинутой и сложной системой.

🤖 «Системный Блокъ» @sysblok

BY Системный Блокъ


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/sysblok/941

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

In 2014, Pavel Durov fled the country after allies of the Kremlin took control of the social networking site most know just as VK. Russia's intelligence agency had asked Durov to turn over the data of anti-Kremlin protesters. Durov refused to do so. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Telegram does offer end-to-end encrypted communications through Secret Chats, but this is not the default setting. Standard conversations use the MTProto method, enabling server-client encryption but with them stored on the server for ease-of-access. This makes using Telegram across multiple devices simple, but also means that the regular Telegram chats you’re having with folks are not as secure as you may believe. Soloviev also promoted the channel in a post he shared on his own Telegram, which has 580,000 followers. The post recommended his viewers subscribe to "War on Fakes" in a time of fake news. The picture was mixed overseas. Hong Kong’s Hang Seng Index fell 1.6%, under pressure from U.S. regulatory scrutiny on New York-listed Chinese companies. Stocks were more buoyant in Europe, where Frankfurt’s DAX surged 1.4%.
from no


Telegram Системный Блокъ
FROM American