Telegram Group & Telegram Channel
Попалось на глаза аж октябрьское выступление Ноама Брауна из OpenAI, которое сейчас, пожалуй, стало только актуальней. Там недолго — 12 минут; очень полезно послушать.
Ноам напоминает, что для тех ИИ алгоритмов, которые использовались для побед в го или покере, была показана и доказана сильная зависимость времени, затрачиваемого на ответ, — и конечного результата. Еще создатели Alfa Go отмечали, что для обыгрывания топовых игроков, система должна размышлять над каждым ходом не менее 2 минут; если это время заметно сократить, то алгоритм начнет проигрывать отнюдь не только чемпионам.
Ноам утверждает, что похожая ситуация и с языковыми моделями и вспоминает Канемана с его системой-1 быстрых эвристик и системой-2 долгих рассуждений: первая выигрывает в оперативности, но нередко ошибается.
Тренируя модели за миллиард долларов, их создатели стремятся получить одновременно и хороший и быстрый ответ — что разумно, если модель будет в основном чатиться: люди не станут общаться с даже умным тормозом. Ответ модели в такой ситуации очень дешевый: на него не расходуются вычислительные мощности, тот самый компьют (да, пора привыкать к этому слову). Но если дать возможность модели вычислительно потрудиться в процессе ответа, то его качество резко возрастает, и несколько подрастает цена — растет и расход ресурсов.
Собственно, это рассказ о том, почему была придумана и в итоге выпущена рассуждающая o1. Но настоящий потенциал таких моделей — не в чатиках, а в помощи в решении научных и технических проблем. Там нет “разговорных” требований к скорости и цене ответа: качественный ответ на сложный научный вопрос стоит того, чтоб его подождать хоть минуты, хоть часы, чтоб платить за него даже и тысячи долларов.
И это означает, что меняется парадигма: от скейлинга только возможностей системы-1, разработчики переходят к скейлингу рассуждений в системе-2 — и это означает, что та самая “стена”, которой пугают некоторые эксперты, существует лишь в первой парадигме. На ближайшие годы понятно куда масштабироваться, ни во что не упираясь и не снижая темп новых достижений.
(вот прямо вспоминается, сколько лет скептики старательно и безуспешно хоронили закон Мура… 🙂 )

https://www.ted.com/talks/noam_brown_ai_won_t_plateau_if_we_give_it_time_to_think



group-telegram.com/techsparks/4865
Create:
Last Update:

Попалось на глаза аж октябрьское выступление Ноама Брауна из OpenAI, которое сейчас, пожалуй, стало только актуальней. Там недолго — 12 минут; очень полезно послушать.
Ноам напоминает, что для тех ИИ алгоритмов, которые использовались для побед в го или покере, была показана и доказана сильная зависимость времени, затрачиваемого на ответ, — и конечного результата. Еще создатели Alfa Go отмечали, что для обыгрывания топовых игроков, система должна размышлять над каждым ходом не менее 2 минут; если это время заметно сократить, то алгоритм начнет проигрывать отнюдь не только чемпионам.
Ноам утверждает, что похожая ситуация и с языковыми моделями и вспоминает Канемана с его системой-1 быстрых эвристик и системой-2 долгих рассуждений: первая выигрывает в оперативности, но нередко ошибается.
Тренируя модели за миллиард долларов, их создатели стремятся получить одновременно и хороший и быстрый ответ — что разумно, если модель будет в основном чатиться: люди не станут общаться с даже умным тормозом. Ответ модели в такой ситуации очень дешевый: на него не расходуются вычислительные мощности, тот самый компьют (да, пора привыкать к этому слову). Но если дать возможность модели вычислительно потрудиться в процессе ответа, то его качество резко возрастает, и несколько подрастает цена — растет и расход ресурсов.
Собственно, это рассказ о том, почему была придумана и в итоге выпущена рассуждающая o1. Но настоящий потенциал таких моделей — не в чатиках, а в помощи в решении научных и технических проблем. Там нет “разговорных” требований к скорости и цене ответа: качественный ответ на сложный научный вопрос стоит того, чтоб его подождать хоть минуты, хоть часы, чтоб платить за него даже и тысячи долларов.
И это означает, что меняется парадигма: от скейлинга только возможностей системы-1, разработчики переходят к скейлингу рассуждений в системе-2 — и это означает, что та самая “стена”, которой пугают некоторые эксперты, существует лишь в первой парадигме. На ближайшие годы понятно куда масштабироваться, ни во что не упираясь и не снижая темп новых достижений.
(вот прямо вспоминается, сколько лет скептики старательно и безуспешно хоронили закон Мура… 🙂 )

https://www.ted.com/talks/noam_brown_ai_won_t_plateau_if_we_give_it_time_to_think

BY TechSparks




Share with your friend now:
group-telegram.com/techsparks/4865

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

However, the perpetrators of such frauds are now adopting new methods and technologies to defraud the investors. Overall, extreme levels of fear in the market seems to have morphed into something more resembling concern. For example, the Cboe Volatility Index fell from its 2022 peak of 36, which it hit Monday, to around 30 on Friday, a sign of easing tensions. Meanwhile, while the price of WTI crude oil slipped from Sunday’s multiyear high $130 of barrel to $109 a pop. Markets have been expecting heavy restrictions on Russian oil, some of which the U.S. has already imposed, and that would reduce the global supply and bring about even more burdensome inflation. Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. The news also helped traders look past another report showing decades-high inflation and shake off some of the volatility from recent sessions. The Bureau of Labor Statistics' February Consumer Price Index (CPI) this week showed another surge in prices even before Russia escalated its attacks in Ukraine. The headline CPI — soaring 7.9% over last year — underscored the sticky inflationary pressures reverberating across the U.S. economy, with everything from groceries to rents and airline fares getting more expensive for everyday consumers.
from tw


Telegram TechSparks
FROM American