Telegram Group & Telegram Channel
В последние дни я много слышал о китайском чудо-инструменте искусственного интеллекта DeepSeek, который не только работает лучше многих имеющихся инструментов, основанных на больших языковых моделях (в том числе, лучше ChatGPT, даже в последней версии), но и относится к категории Open Source, кроме того он бесплатно-свободно и без всяких ухищрений доступен российским пользователям. А вчера вышла хвалебная статья в Science об этом инструменте:

https://www.science.org/content/article/chinese-firm-s-faster-cheaper-ai-language-model-makes-splash

В частности, в ней утверждается, что подход DeepSeek «включает улучшение так называемой архитектуры Mixture of Experts. Она снижает вычислительную мощность, необходимую для обучения модели, и выдает более эффективные ответы на запросы. Только подмножество экспертных сетей в модели обучается для выполнения задачи. Затем сеть отправляет адресные запросы только тем экспертным сетям, которые наиболее подходят для ответа.»

В результате на обучение DeepSeek было потрачено всего $5.6 млн., тогда как обучение ChatGPT-4o стоило $78 млн. Операционные затраты при работе DeepSeek также намного меньше, чем для других моделей. Стоит также обратить внимание на слова генерального директора DeepSeek Лян Вэньфэна о том, что «исследования и технологические инновации, а не бизнес-возможности, являются приоритетом компании. Ее конечная цель — достичь такого уровня искусственного интеллекта, который бы соответствовал когнитивным способностям человека. Эта высокая цель помогла фирме привлечь амбициозных исследователей.»

После таких рекомендаций от Science я решил проверить, как все это работает. Зашел на

https://www.deepseek.com/

непосредственно через google-account и приступил к общению в чате на тему предыдущего поста (опубликованного сегодня утром) о глобальном потеплении. Результат можно посмотреть здесь:

https://disk.yandex.ru/i/-7IxJEx0SsmpKw

Видно, что ответы на мои короткие вопросы полные и исчерпывающие, хотя они не выходят за рамки mainstream reasoning (но странно было бы ожидать оригинальности от большой языковой модели). Потом я начал использовать поисковую функцию «Search», просил дать ссылки на обзорные статьи по тому или иному научному вопросу – все работает, причем ответ выдается не в виде совокупности ссылок, а в виде связного текста, куда ссылки вкраплены, как во введении к реальной научной статье. Причем все ссылки реальные, не вымышленные, как часто бывает в текстах, написанных ChatGPT.

Потом я перешел на общение на русском языке – все точно так же отлично работает, включая не только научные вопросы, но и, например, написание стихов на какую-нибудь тему в стиле того или иного поэта прошлого (опять-таки, если обращать внимание на стиль, а не оригинальность мысли). В общем, советовал бы попробовать этот инструмент, к которому у российских пользователей есть безбарьерный и бесплатный доступ (кстати, его можно установить и на мобильных устройствах, скачав соответствующее приложение из AppStore или GooglePlay).



group-telegram.com/khokhlovAR/901
Create:
Last Update:

В последние дни я много слышал о китайском чудо-инструменте искусственного интеллекта DeepSeek, который не только работает лучше многих имеющихся инструментов, основанных на больших языковых моделях (в том числе, лучше ChatGPT, даже в последней версии), но и относится к категории Open Source, кроме того он бесплатно-свободно и без всяких ухищрений доступен российским пользователям. А вчера вышла хвалебная статья в Science об этом инструменте:

https://www.science.org/content/article/chinese-firm-s-faster-cheaper-ai-language-model-makes-splash

В частности, в ней утверждается, что подход DeepSeek «включает улучшение так называемой архитектуры Mixture of Experts. Она снижает вычислительную мощность, необходимую для обучения модели, и выдает более эффективные ответы на запросы. Только подмножество экспертных сетей в модели обучается для выполнения задачи. Затем сеть отправляет адресные запросы только тем экспертным сетям, которые наиболее подходят для ответа.»

В результате на обучение DeepSeek было потрачено всего $5.6 млн., тогда как обучение ChatGPT-4o стоило $78 млн. Операционные затраты при работе DeepSeek также намного меньше, чем для других моделей. Стоит также обратить внимание на слова генерального директора DeepSeek Лян Вэньфэна о том, что «исследования и технологические инновации, а не бизнес-возможности, являются приоритетом компании. Ее конечная цель — достичь такого уровня искусственного интеллекта, который бы соответствовал когнитивным способностям человека. Эта высокая цель помогла фирме привлечь амбициозных исследователей.»

После таких рекомендаций от Science я решил проверить, как все это работает. Зашел на

https://www.deepseek.com/

непосредственно через google-account и приступил к общению в чате на тему предыдущего поста (опубликованного сегодня утром) о глобальном потеплении. Результат можно посмотреть здесь:

https://disk.yandex.ru/i/-7IxJEx0SsmpKw

Видно, что ответы на мои короткие вопросы полные и исчерпывающие, хотя они не выходят за рамки mainstream reasoning (но странно было бы ожидать оригинальности от большой языковой модели). Потом я начал использовать поисковую функцию «Search», просил дать ссылки на обзорные статьи по тому или иному научному вопросу – все работает, причем ответ выдается не в виде совокупности ссылок, а в виде связного текста, куда ссылки вкраплены, как во введении к реальной научной статье. Причем все ссылки реальные, не вымышленные, как часто бывает в текстах, написанных ChatGPT.

Потом я перешел на общение на русском языке – все точно так же отлично работает, включая не только научные вопросы, но и, например, написание стихов на какую-нибудь тему в стиле того или иного поэта прошлого (опять-таки, если обращать внимание на стиль, а не оригинальность мысли). В общем, советовал бы попробовать этот инструмент, к которому у российских пользователей есть безбарьерный и бесплатный доступ (кстати, его можно установить и на мобильных устройствах, скачав соответствующее приложение из AppStore или GooglePlay).

BY Алексей Хохлов




Share with your friend now:
group-telegram.com/khokhlovAR/901

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy." The company maintains that it cannot act against individual or group chats, which are “private amongst their participants,” but it will respond to requests in relation to sticker sets, channels and bots which are publicly available. During the invasion of Ukraine, Pavel Durov has wrestled with this issue a lot more prominently than he has before. Channels like Donbass Insider and Bellum Acta, as reported by Foreign Policy, started pumping out pro-Russian propaganda as the invasion began. So much so that the Ukrainian National Security and Defense Council issued a statement labeling which accounts are Russian-backed. Ukrainian officials, in potential violation of the Geneva Convention, have shared imagery of dead and captured Russian soldiers on the platform. Despite Telegram's origins, its approach to users' security has privacy advocates worried. The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel. "We're seeing really dramatic moves, and it's all really tied to Ukraine right now, and in a secondary way, in terms of interest rates," Octavio Marenzi, CEO of Opimas, told Yahoo Finance Live on Thursday. "This war in Ukraine is going to give the Fed the ammunition, the cover that it needs, to not raise interest rates too quickly. And I think Jay Powell is a very tepid sort of inflation fighter and he's not going to do as much as he needs to do to get that under control. And this seems like an excuse to kick the can further down the road still and not do too much too soon."
from us


Telegram Алексей Хохлов
FROM American