12. 3. 2024 17:22
Díky. Ona se tokenizace používá i s moderními LLM, například pro udržení rozumně velikého kontextu (protože delší kontext znamená platit víc a většinou to spíš zhoršuje odpovědi).