一句人话
模型处理文本时的最小单位,不是“一个汉字等于一个 token”,也不是固定长度。
为什么重要
上下文大小、调用成本和回答长度都和 token 有关。
常见误区
以为上下文很大就等于模型会自动理解全部背景。
模型处理文本时的最小单位,不是“一个汉字等于一个 token”,也不是固定长度。
上下文大小、调用成本和回答长度都和 token 有关。
以为上下文很大就等于模型会自动理解全部背景。
Core Terms
当你已经知道词义以后,真正重要的是:它会影响什么判断、什么风险、什么工作流。
如何使用这页
优先掌握