Telegram Group & Telegram Channel
Попалось на глаза аж октябрьское выступление Ноама Брауна из OpenAI, которое сейчас, пожалуй, стало только актуальней. Там недолго — 12 минут; очень полезно послушать.
Ноам напоминает, что для тех ИИ алгоритмов, которые использовались для побед в го или покере, была показана и доказана сильная зависимость времени, затрачиваемого на ответ, — и конечного результата. Еще создатели Alfa Go отмечали, что для обыгрывания топовых игроков, система должна размышлять над каждым ходом не менее 2 минут; если это время заметно сократить, то алгоритм начнет проигрывать отнюдь не только чемпионам.
Ноам утверждает, что похожая ситуация и с языковыми моделями и вспоминает Канемана с его системой-1 быстрых эвристик и системой-2 долгих рассуждений: первая выигрывает в оперативности, но нередко ошибается.
Тренируя модели за миллиард долларов, их создатели стремятся получить одновременно и хороший и быстрый ответ — что разумно, если модель будет в основном чатиться: люди не станут общаться с даже умным тормозом. Ответ модели в такой ситуации очень дешевый: на него не расходуются вычислительные мощности, тот самый компьют (да, пора привыкать к этому слову). Но если дать возможность модели вычислительно потрудиться в процессе ответа, то его качество резко возрастает, и несколько подрастает цена — растет и расход ресурсов.
Собственно, это рассказ о том, почему была придумана и в итоге выпущена рассуждающая o1. Но настоящий потенциал таких моделей — не в чатиках, а в помощи в решении научных и технических проблем. Там нет “разговорных” требований к скорости и цене ответа: качественный ответ на сложный научный вопрос стоит того, чтоб его подождать хоть минуты, хоть часы, чтоб платить за него даже и тысячи долларов.
И это означает, что меняется парадигма: от скейлинга только возможностей системы-1, разработчики переходят к скейлингу рассуждений в системе-2 — и это означает, что та самая “стена”, которой пугают некоторые эксперты, существует лишь в первой парадигме. На ближайшие годы понятно куда масштабироваться, ни во что не упираясь и не снижая темп новых достижений.
(вот прямо вспоминается, сколько лет скептики старательно и безуспешно хоронили закон Мура… 🙂 )

https://www.ted.com/talks/noam_brown_ai_won_t_plateau_if_we_give_it_time_to_think



group-telegram.com/techsparks/4865
Create:
Last Update:

Попалось на глаза аж октябрьское выступление Ноама Брауна из OpenAI, которое сейчас, пожалуй, стало только актуальней. Там недолго — 12 минут; очень полезно послушать.
Ноам напоминает, что для тех ИИ алгоритмов, которые использовались для побед в го или покере, была показана и доказана сильная зависимость времени, затрачиваемого на ответ, — и конечного результата. Еще создатели Alfa Go отмечали, что для обыгрывания топовых игроков, система должна размышлять над каждым ходом не менее 2 минут; если это время заметно сократить, то алгоритм начнет проигрывать отнюдь не только чемпионам.
Ноам утверждает, что похожая ситуация и с языковыми моделями и вспоминает Канемана с его системой-1 быстрых эвристик и системой-2 долгих рассуждений: первая выигрывает в оперативности, но нередко ошибается.
Тренируя модели за миллиард долларов, их создатели стремятся получить одновременно и хороший и быстрый ответ — что разумно, если модель будет в основном чатиться: люди не станут общаться с даже умным тормозом. Ответ модели в такой ситуации очень дешевый: на него не расходуются вычислительные мощности, тот самый компьют (да, пора привыкать к этому слову). Но если дать возможность модели вычислительно потрудиться в процессе ответа, то его качество резко возрастает, и несколько подрастает цена — растет и расход ресурсов.
Собственно, это рассказ о том, почему была придумана и в итоге выпущена рассуждающая o1. Но настоящий потенциал таких моделей — не в чатиках, а в помощи в решении научных и технических проблем. Там нет “разговорных” требований к скорости и цене ответа: качественный ответ на сложный научный вопрос стоит того, чтоб его подождать хоть минуты, хоть часы, чтоб платить за него даже и тысячи долларов.
И это означает, что меняется парадигма: от скейлинга только возможностей системы-1, разработчики переходят к скейлингу рассуждений в системе-2 — и это означает, что та самая “стена”, которой пугают некоторые эксперты, существует лишь в первой парадигме. На ближайшие годы понятно куда масштабироваться, ни во что не упираясь и не снижая темп новых достижений.
(вот прямо вспоминается, сколько лет скептики старательно и безуспешно хоронили закон Мура… 🙂 )

https://www.ted.com/talks/noam_brown_ai_won_t_plateau_if_we_give_it_time_to_think

BY TechSparks




Share with your friend now:
group-telegram.com/techsparks/4865

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp. To that end, when files are actively downloading, a new icon now appears in the Search bar that users can tap to view and manage downloads, pause and resume all downloads or just individual items, and select one to increase its priority or view it in a chat. The SC urges the public to refer to the SC’s I nvestor Alert List before investing. The list contains details of unauthorised websites, investment products, companies and individuals. Members of the public who suspect that they have been approached by unauthorised firms or individuals offering schemes that promise unrealistic returns On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands. After fleeing Russia, the brothers founded Telegram as a way to communicate outside the Kremlin's orbit. They now run it from Dubai, and Pavel Durov says it has more than 500 million monthly active users.
from ru


Telegram TechSparks
FROM American