Ну, начнём с того, что ИИ — это не LLM. LLM — подмножество ИИ, и не нужно между ними ставить знак равенства. То, что LLM сейчас на хайпе, это ещё не значит что недавно изобрели ИИ. 🤣
Если говорить строго, то тема поста: “LLM — это будущее”?
В каком-то фильме (не помню в каком, напишите если узнаете) роботы разговаривали друг с другом на человеческом языке. Я смотрела очень давно и помню что меня дико бомбануло с этого эпизода. Для любого кто разбирается в технологиях, это выглядит максимально тупо. Роботы должны общаться по API, по согласованному протоколу передачи информации. А не генерировать человеческий текст, произносить на одной стороне, а потом слышать и распознавать на другой. Это неэффективно, на каждом этапе конвертации информации возможны помехи, это лишняя трата ресурсов. Роботы могут находиться на расстоянии друг от друга, и передача вообще станет невозможной. Это неоптимально. Но зато зрелищно! Обыватель на это смотрит и думает “Вау, круто! Роботы разговаривают! Вот это будущее!” Обывателю не понять что авторы фильма либо не разбираются, либо специально сделали так, потому что если бы информация передавалась по невидимым протоколам, то какую картинку в фильме показывать?
Разговаривающие роботы — это не будущее, это бессмысленная глупость, которая ни в какое будущее не превратится. Это то что имеет вау-эффект и около-нулевой практический смысл.
Человеческий язык не самый оптимальный способ передачи информации компьютер-компьютер или человек-компьютер. Иначе бы не придумывали языков программирования и SQL. Не самый оптимальный, но один из возможных! Промежуточный этап. Для получения точного ответа нужно использовать точный язык запросов, и знать как организованы данные. Это всё не может быть на естественном языке. Человеческий язык — это компромисс, это адаптация к людям, которые не умеют разговаривать на языке запросов, это промежуточный интерфейс.
Интернет состоит из текстов. Данные в нём не структурированы, они были созданы людьми так как они умели. Требований к данным не было особо, стандартов не было. HTML вполне себе свободный формат. Поэтому мы имеем что имеем, интернет — это информационная помойка. А LLM — это адаптация к ней, способ хоть как-то в ней разобраться и найти хоть какие-то ответы.
LLM — это не будущее, это временное решение. Будущее заключается не в более лучшей адаптации к помойке, а в разборе этой самой помойки, создании на её месте прозрачной системы, структурированной, прозрачной, где выделены смыслы, размечена онтология знаний, которая заточена под решение задач и поиска ответов на вопросы. Причём не в режиме чёрного ящика, когда мы не знаем почему, но кажется что ответ такой. А с прослеживанием всего логического пути как пришли к такому выводу и всех источников. Как это будет работать? По-разному. У любых универсальных алгоритмов и подходов есть недостатки, компромиссы. Алгоритмов есть много разных, тех же самых ИИ-алгоритмов. Они, как и структуры данных, выбираются в зависимости от предметной области, и решают задачи определённого класса оптимальным образом.
Возвращаясь к тому фильму, выглядеть конечно будущее будет не так зрелищно, как разговаривающие роботы. Зато это будет работать. Точно и понятно, без помех. Незаметно улучшать нашу жизнь. И все эти стартапы которые сейчас резко пытаются сделать что-то с использованием LLM, потому что “это будущее” окажутся там же, где стартапы, которые несколько лет назад пытались внедрить себе блокчейн хоть куда-нибудь.
Ну, начнём с того, что ИИ — это не LLM. LLM — подмножество ИИ, и не нужно между ними ставить знак равенства. То, что LLM сейчас на хайпе, это ещё не значит что недавно изобрели ИИ. 🤣
Если говорить строго, то тема поста: “LLM — это будущее”?
В каком-то фильме (не помню в каком, напишите если узнаете) роботы разговаривали друг с другом на человеческом языке. Я смотрела очень давно и помню что меня дико бомбануло с этого эпизода. Для любого кто разбирается в технологиях, это выглядит максимально тупо. Роботы должны общаться по API, по согласованному протоколу передачи информации. А не генерировать человеческий текст, произносить на одной стороне, а потом слышать и распознавать на другой. Это неэффективно, на каждом этапе конвертации информации возможны помехи, это лишняя трата ресурсов. Роботы могут находиться на расстоянии друг от друга, и передача вообще станет невозможной. Это неоптимально. Но зато зрелищно! Обыватель на это смотрит и думает “Вау, круто! Роботы разговаривают! Вот это будущее!” Обывателю не понять что авторы фильма либо не разбираются, либо специально сделали так, потому что если бы информация передавалась по невидимым протоколам, то какую картинку в фильме показывать?
Разговаривающие роботы — это не будущее, это бессмысленная глупость, которая ни в какое будущее не превратится. Это то что имеет вау-эффект и около-нулевой практический смысл.
Человеческий язык не самый оптимальный способ передачи информации компьютер-компьютер или человек-компьютер. Иначе бы не придумывали языков программирования и SQL. Не самый оптимальный, но один из возможных! Промежуточный этап. Для получения точного ответа нужно использовать точный язык запросов, и знать как организованы данные. Это всё не может быть на естественном языке. Человеческий язык — это компромисс, это адаптация к людям, которые не умеют разговаривать на языке запросов, это промежуточный интерфейс.
Интернет состоит из текстов. Данные в нём не структурированы, они были созданы людьми так как они умели. Требований к данным не было особо, стандартов не было. HTML вполне себе свободный формат. Поэтому мы имеем что имеем, интернет — это информационная помойка. А LLM — это адаптация к ней, способ хоть как-то в ней разобраться и найти хоть какие-то ответы.
LLM — это не будущее, это временное решение. Будущее заключается не в более лучшей адаптации к помойке, а в разборе этой самой помойки, создании на её месте прозрачной системы, структурированной, прозрачной, где выделены смыслы, размечена онтология знаний, которая заточена под решение задач и поиска ответов на вопросы. Причём не в режиме чёрного ящика, когда мы не знаем почему, но кажется что ответ такой. А с прослеживанием всего логического пути как пришли к такому выводу и всех источников. Как это будет работать? По-разному. У любых универсальных алгоритмов и подходов есть недостатки, компромиссы. Алгоритмов есть много разных, тех же самых ИИ-алгоритмов. Они, как и структуры данных, выбираются в зависимости от предметной области, и решают задачи определённого класса оптимальным образом.
Возвращаясь к тому фильму, выглядеть конечно будущее будет не так зрелищно, как разговаривающие роботы. Зато это будет работать. Точно и понятно, без помех. Незаметно улучшать нашу жизнь. И все эти стартапы которые сейчас резко пытаются сделать что-то с использованием LLM, потому что “это будущее” окажутся там же, где стартапы, которые несколько лет назад пытались внедрить себе блокчейн хоть куда-нибудь.
BY Аня Крх не о смысле жизни
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis." Ukrainian forces have since put up a strong resistance to the Russian troops amid the war that has left hundreds of Ukrainian civilians, including children, dead, according to the United Nations. Ukrainian and international officials have accused Russia of targeting civilian populations with shelling and bombardments. Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." The SC urges the public to refer to the SC’s I nvestor Alert List before investing. The list contains details of unauthorised websites, investment products, companies and individuals. Members of the public who suspect that they have been approached by unauthorised firms or individuals offering schemes that promise unrealistic returns
from sa