Telegram Group & Telegram Channel
Попалось на глаза аж октябрьское выступление Ноама Брауна из OpenAI, которое сейчас, пожалуй, стало только актуальней. Там недолго — 12 минут; очень полезно послушать.
Ноам напоминает, что для тех ИИ алгоритмов, которые использовались для побед в го или покере, была показана и доказана сильная зависимость времени, затрачиваемого на ответ, — и конечного результата. Еще создатели Alfa Go отмечали, что для обыгрывания топовых игроков, система должна размышлять над каждым ходом не менее 2 минут; если это время заметно сократить, то алгоритм начнет проигрывать отнюдь не только чемпионам.
Ноам утверждает, что похожая ситуация и с языковыми моделями и вспоминает Канемана с его системой-1 быстрых эвристик и системой-2 долгих рассуждений: первая выигрывает в оперативности, но нередко ошибается.
Тренируя модели за миллиард долларов, их создатели стремятся получить одновременно и хороший и быстрый ответ — что разумно, если модель будет в основном чатиться: люди не станут общаться с даже умным тормозом. Ответ модели в такой ситуации очень дешевый: на него не расходуются вычислительные мощности, тот самый компьют (да, пора привыкать к этому слову). Но если дать возможность модели вычислительно потрудиться в процессе ответа, то его качество резко возрастает, и несколько подрастает цена — растет и расход ресурсов.
Собственно, это рассказ о том, почему была придумана и в итоге выпущена рассуждающая o1. Но настоящий потенциал таких моделей — не в чатиках, а в помощи в решении научных и технических проблем. Там нет “разговорных” требований к скорости и цене ответа: качественный ответ на сложный научный вопрос стоит того, чтоб его подождать хоть минуты, хоть часы, чтоб платить за него даже и тысячи долларов.
И это означает, что меняется парадигма: от скейлинга только возможностей системы-1, разработчики переходят к скейлингу рассуждений в системе-2 — и это означает, что та самая “стена”, которой пугают некоторые эксперты, существует лишь в первой парадигме. На ближайшие годы понятно куда масштабироваться, ни во что не упираясь и не снижая темп новых достижений.
(вот прямо вспоминается, сколько лет скептики старательно и безуспешно хоронили закон Мура… 🙂 )

https://www.ted.com/talks/noam_brown_ai_won_t_plateau_if_we_give_it_time_to_think



group-telegram.com/techsparks/4865
Create:
Last Update:

Попалось на глаза аж октябрьское выступление Ноама Брауна из OpenAI, которое сейчас, пожалуй, стало только актуальней. Там недолго — 12 минут; очень полезно послушать.
Ноам напоминает, что для тех ИИ алгоритмов, которые использовались для побед в го или покере, была показана и доказана сильная зависимость времени, затрачиваемого на ответ, — и конечного результата. Еще создатели Alfa Go отмечали, что для обыгрывания топовых игроков, система должна размышлять над каждым ходом не менее 2 минут; если это время заметно сократить, то алгоритм начнет проигрывать отнюдь не только чемпионам.
Ноам утверждает, что похожая ситуация и с языковыми моделями и вспоминает Канемана с его системой-1 быстрых эвристик и системой-2 долгих рассуждений: первая выигрывает в оперативности, но нередко ошибается.
Тренируя модели за миллиард долларов, их создатели стремятся получить одновременно и хороший и быстрый ответ — что разумно, если модель будет в основном чатиться: люди не станут общаться с даже умным тормозом. Ответ модели в такой ситуации очень дешевый: на него не расходуются вычислительные мощности, тот самый компьют (да, пора привыкать к этому слову). Но если дать возможность модели вычислительно потрудиться в процессе ответа, то его качество резко возрастает, и несколько подрастает цена — растет и расход ресурсов.
Собственно, это рассказ о том, почему была придумана и в итоге выпущена рассуждающая o1. Но настоящий потенциал таких моделей — не в чатиках, а в помощи в решении научных и технических проблем. Там нет “разговорных” требований к скорости и цене ответа: качественный ответ на сложный научный вопрос стоит того, чтоб его подождать хоть минуты, хоть часы, чтоб платить за него даже и тысячи долларов.
И это означает, что меняется парадигма: от скейлинга только возможностей системы-1, разработчики переходят к скейлингу рассуждений в системе-2 — и это означает, что та самая “стена”, которой пугают некоторые эксперты, существует лишь в первой парадигме. На ближайшие годы понятно куда масштабироваться, ни во что не упираясь и не снижая темп новых достижений.
(вот прямо вспоминается, сколько лет скептики старательно и безуспешно хоронили закон Мура… 🙂 )

https://www.ted.com/talks/noam_brown_ai_won_t_plateau_if_we_give_it_time_to_think

BY TechSparks




Share with your friend now:
group-telegram.com/techsparks/4865

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Russians are really disconnected from the reality of what happening to their country," Andrey said. "So Telegram has become essential for understanding what's going on to the Russian-speaking world." But because group chats and the channel features are not end-to-end encrypted, Galperin said user privacy is potentially under threat. Emerson Brooking, a disinformation expert at the Atlantic Council's Digital Forensic Research Lab, said: "Back in the Wild West period of content moderation, like 2014 or 2015, maybe they could have gotten away with it, but it stands in marked contrast with how other companies run themselves today." A Russian Telegram channel with over 700,000 followers is spreading disinformation about Russia's invasion of Ukraine under the guise of providing "objective information" and fact-checking fake news. Its influence extends beyond the platform, with major Russian publications, government officials, and journalists citing the page's posts. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice.
from us


Telegram TechSparks
FROM American