Notice: file_put_contents(): Write of 761 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 12288 of 13049 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
Алексей Хохлов | Telegram Webview: khokhlovAR/901 -
Telegram Group & Telegram Channel
В последние дни я много слышал о китайском чудо-инструменте искусственного интеллекта DeepSeek, который не только работает лучше многих имеющихся инструментов, основанных на больших языковых моделях (в том числе, лучше ChatGPT, даже в последней версии), но и относится к категории Open Source, кроме того он бесплатно-свободно и без всяких ухищрений доступен российским пользователям. А вчера вышла хвалебная статья в Science об этом инструменте:

https://www.science.org/content/article/chinese-firm-s-faster-cheaper-ai-language-model-makes-splash

В частности, в ней утверждается, что подход DeepSeek «включает улучшение так называемой архитектуры Mixture of Experts. Она снижает вычислительную мощность, необходимую для обучения модели, и выдает более эффективные ответы на запросы. Только подмножество экспертных сетей в модели обучается для выполнения задачи. Затем сеть отправляет адресные запросы только тем экспертным сетям, которые наиболее подходят для ответа.»

В результате на обучение DeepSeek было потрачено всего $5.6 млн., тогда как обучение ChatGPT-4o стоило $78 млн. Операционные затраты при работе DeepSeek также намного меньше, чем для других моделей. Стоит также обратить внимание на слова генерального директора DeepSeek Лян Вэньфэна о том, что «исследования и технологические инновации, а не бизнес-возможности, являются приоритетом компании. Ее конечная цель — достичь такого уровня искусственного интеллекта, который бы соответствовал когнитивным способностям человека. Эта высокая цель помогла фирме привлечь амбициозных исследователей.»

После таких рекомендаций от Science я решил проверить, как все это работает. Зашел на

https://www.deepseek.com/

непосредственно через google-account и приступил к общению в чате на тему предыдущего поста (опубликованного сегодня утром) о глобальном потеплении. Результат можно посмотреть здесь:

https://disk.yandex.ru/i/-7IxJEx0SsmpKw

Видно, что ответы на мои короткие вопросы полные и исчерпывающие, хотя они не выходят за рамки mainstream reasoning (но странно было бы ожидать оригинальности от большой языковой модели). Потом я начал использовать поисковую функцию «Search», просил дать ссылки на обзорные статьи по тому или иному научному вопросу – все работает, причем ответ выдается не в виде совокупности ссылок, а в виде связного текста, куда ссылки вкраплены, как во введении к реальной научной статье. Причем все ссылки реальные, не вымышленные, как часто бывает в текстах, написанных ChatGPT.

Потом я перешел на общение на русском языке – все точно так же отлично работает, включая не только научные вопросы, но и, например, написание стихов на какую-нибудь тему в стиле того или иного поэта прошлого (опять-таки, если обращать внимание на стиль, а не оригинальность мысли). В общем, советовал бы попробовать этот инструмент, к которому у российских пользователей есть безбарьерный и бесплатный доступ (кстати, его можно установить и на мобильных устройствах, скачав соответствующее приложение из AppStore или GooglePlay).



group-telegram.com/khokhlovAR/901
Create:
Last Update:

В последние дни я много слышал о китайском чудо-инструменте искусственного интеллекта DeepSeek, который не только работает лучше многих имеющихся инструментов, основанных на больших языковых моделях (в том числе, лучше ChatGPT, даже в последней версии), но и относится к категории Open Source, кроме того он бесплатно-свободно и без всяких ухищрений доступен российским пользователям. А вчера вышла хвалебная статья в Science об этом инструменте:

https://www.science.org/content/article/chinese-firm-s-faster-cheaper-ai-language-model-makes-splash

В частности, в ней утверждается, что подход DeepSeek «включает улучшение так называемой архитектуры Mixture of Experts. Она снижает вычислительную мощность, необходимую для обучения модели, и выдает более эффективные ответы на запросы. Только подмножество экспертных сетей в модели обучается для выполнения задачи. Затем сеть отправляет адресные запросы только тем экспертным сетям, которые наиболее подходят для ответа.»

В результате на обучение DeepSeek было потрачено всего $5.6 млн., тогда как обучение ChatGPT-4o стоило $78 млн. Операционные затраты при работе DeepSeek также намного меньше, чем для других моделей. Стоит также обратить внимание на слова генерального директора DeepSeek Лян Вэньфэна о том, что «исследования и технологические инновации, а не бизнес-возможности, являются приоритетом компании. Ее конечная цель — достичь такого уровня искусственного интеллекта, который бы соответствовал когнитивным способностям человека. Эта высокая цель помогла фирме привлечь амбициозных исследователей.»

После таких рекомендаций от Science я решил проверить, как все это работает. Зашел на

https://www.deepseek.com/

непосредственно через google-account и приступил к общению в чате на тему предыдущего поста (опубликованного сегодня утром) о глобальном потеплении. Результат можно посмотреть здесь:

https://disk.yandex.ru/i/-7IxJEx0SsmpKw

Видно, что ответы на мои короткие вопросы полные и исчерпывающие, хотя они не выходят за рамки mainstream reasoning (но странно было бы ожидать оригинальности от большой языковой модели). Потом я начал использовать поисковую функцию «Search», просил дать ссылки на обзорные статьи по тому или иному научному вопросу – все работает, причем ответ выдается не в виде совокупности ссылок, а в виде связного текста, куда ссылки вкраплены, как во введении к реальной научной статье. Причем все ссылки реальные, не вымышленные, как часто бывает в текстах, написанных ChatGPT.

Потом я перешел на общение на русском языке – все точно так же отлично работает, включая не только научные вопросы, но и, например, написание стихов на какую-нибудь тему в стиле того или иного поэта прошлого (опять-таки, если обращать внимание на стиль, а не оригинальность мысли). В общем, советовал бы попробовать этот инструмент, к которому у российских пользователей есть безбарьерный и бесплатный доступ (кстати, его можно установить и на мобильных устройствах, скачав соответствующее приложение из AppStore или GooglePlay).

BY Алексей Хохлов




Share with your friend now:
group-telegram.com/khokhlovAR/901

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Crude oil prices edged higher after tumbling on Thursday, when U.S. West Texas intermediate slid back below $110 per barrel after topping as much as $130 a barrel in recent sessions. Still, gas prices at the pump rose to fresh highs. In a message on his Telegram channel recently recounting the episode, Durov wrote: "I lost my company and my home, but would do it again – without hesitation." These administrators had built substantial positions in these scrips prior to the circulation of recommendations and offloaded their positions subsequent to rise in price of these scrips, making significant profits at the expense of unsuspecting investors, Sebi noted. On Feb. 27, however, he admitted from his Russian-language account that "Telegram channels are increasingly becoming a source of unverified information related to Ukrainian events." Official government accounts have also spread fake fact checks. An official Twitter account for the Russia diplomatic mission in Geneva shared a fake debunking video claiming without evidence that "Western and Ukrainian media are creating thousands of fake news on Russia every day." The video, which has amassed almost 30,000 views, offered a "how-to" spot misinformation.
from us


Telegram Алексей Хохлов
FROM American