Notice: file_put_contents(): Write of 14610 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50
Kali Novskaya | Telegram Webview: rybolos_channel/1023 -
Telegram Group & Telegram Channel
🌸Чаевые для LLM: сколько нужно пообещать?🌸
#nlp #про_nlp #prompt_engineering

Популярный прием в промпт-инжиниринге — добавить обещание денег за хорошо выполненную работу (что? да!)
"I'm going to tip $200 for a perfect solution!"

Изначальный reddit-тред показывает, что в сравнении с отсутствем чаевых можно получить примерно +5-11% итогового качества.

На стриме Сиолошной Денис пошутил, что обещает вообще 5к долларов для эффективности своих затравок. В тот же момент я подумала — а как бы сделать оптимизировать выбор суммы чаевых? Конечно, такое уже кто-то проверил в интернете.

🟣Метод очень простой:
— будем делать перебор сумм разного порядка, подставляя их в шаблон
I'll tip you {tip} for a perfect answer.

— замеряем качество решения задачи с разными суммами, от $0.1 до $1,000,000
— так как разные затравки влияют еще и на длину выдачи, может оказаться, что некоторые промпты делают наши генерации длиннее, и в том числе дороже. Так что будем учитывать и этот параметр тоже
— будем проверять на gpt-4-turbo, на задаче генерации валидных Python one-liners (можно было выбрать задачу получше, да)

🟣Краткий итог проверки:
— лучше всего предлагать 10-20 долларов чаевых, это значение, при котором качество вырастает
— если пообещать очень крупную сумму (более 100 тыс), качество тоже вырастает, но значительно вырастает и длина генерации
— разные затравки неконсистентно увеличивают длину генерации, нужно отслеживать каждую
— очень маленькие чаевые качество ухудшают! лучше ничего не писать про чаевые

В целом достаточно интерпретируемый итог, если считать, что мы пытаемся затравкой воссоздать реалистичные условия, при которых кто-то старается.
Контринтуитивными кажутся совсем большие суммы, так как такие события должны быть очень редкими и не очень помогать. Andrej Karpathy как-то говорил в State of GPT, что написать "веди себя как ученый с IQ 120" гораздо лучше, чем "с IQ 400", так как IQ 400 в корпусе не встречалось. (Как и милионные чаевые)
Что думаете?

🟣Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/rybolos_channel/1023
Create:
Last Update:

🌸Чаевые для LLM: сколько нужно пообещать?🌸
#nlp #про_nlp #prompt_engineering

Популярный прием в промпт-инжиниринге — добавить обещание денег за хорошо выполненную работу (что? да!)
"I'm going to tip $200 for a perfect solution!"

Изначальный reddit-тред показывает, что в сравнении с отсутствем чаевых можно получить примерно +5-11% итогового качества.

На стриме Сиолошной Денис пошутил, что обещает вообще 5к долларов для эффективности своих затравок. В тот же момент я подумала — а как бы сделать оптимизировать выбор суммы чаевых? Конечно, такое уже кто-то проверил в интернете.

🟣Метод очень простой:
— будем делать перебор сумм разного порядка, подставляя их в шаблон

I'll tip you {tip} for a perfect answer.

— замеряем качество решения задачи с разными суммами, от $0.1 до $1,000,000
— так как разные затравки влияют еще и на длину выдачи, может оказаться, что некоторые промпты делают наши генерации длиннее, и в том числе дороже. Так что будем учитывать и этот параметр тоже
— будем проверять на gpt-4-turbo, на задаче генерации валидных Python one-liners (можно было выбрать задачу получше, да)

🟣Краткий итог проверки:
— лучше всего предлагать 10-20 долларов чаевых, это значение, при котором качество вырастает
— если пообещать очень крупную сумму (более 100 тыс), качество тоже вырастает, но значительно вырастает и длина генерации
— разные затравки неконсистентно увеличивают длину генерации, нужно отслеживать каждую
— очень маленькие чаевые качество ухудшают! лучше ничего не писать про чаевые

В целом достаточно интерпретируемый итог, если считать, что мы пытаемся затравкой воссоздать реалистичные условия, при которых кто-то старается.
Контринтуитивными кажутся совсем большие суммы, так как такие события должны быть очень редкими и не очень помогать. Andrej Karpathy как-то говорил в State of GPT, что написать "веди себя как ученый с IQ 120" гораздо лучше, чем "с IQ 400", так как IQ 400 в корпусе не встречалось. (Как и милионные чаевые)
Что думаете?

🟣Ссылка

BY Kali Novskaya





Share with your friend now:
group-telegram.com/rybolos_channel/1023

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

He said that since his platform does not have the capacity to check all channels, it may restrict some in Russia and Ukraine "for the duration of the conflict," but then reversed course hours later after many users complained that Telegram was an important source of information. Following this, Sebi, in an order passed in January 2022, established that the administrators of a Telegram channel having a large subscriber base enticed the subscribers to act upon recommendations that were circulated by those administrators on the channel, leading to significant price and volume impact in various scrips. "There are a lot of things that Telegram could have been doing this whole time. And they know exactly what they are and they've chosen not to do them. That's why I don't trust them," she said. This provided opportunity to their linked entities to offload their shares at higher prices and make significant profits at the cost of unsuspecting retail investors. At the start of 2018, the company attempted to launch an Initial Coin Offering (ICO) which would enable it to enable payments (and earn the cash that comes from doing so). The initial signals were promising, especially given Telegram’s user base is already fairly crypto-savvy. It raised an initial tranche of cash – worth more than a billion dollars – to help develop the coin before opening sales to the public. Unfortunately, third-party sales of coins bought in those initial fundraising rounds raised the ire of the SEC, which brought the hammer down on the whole operation. In 2020, officials ordered Telegram to pay a fine of $18.5 million and hand back much of the cash that it had raised.
from nl


Telegram Kali Novskaya
FROM American