About 84,700,000 results
Open links in new tab
  1. 用transformer做视觉,具体是怎么把图片转成token的? - 知乎

    这些图像的token意义上等价于文本的token,都是原来信息的序列表示。 不同的是,文本的token是通过分词算法分到的subword,这些subword会被映射到字典的index;也就是说,文 …

  2. NLP领域中的token和tokenization到底指的是什么? - 知乎

    Token对应着文本中的一个元素,通过Tokenization将文本划分成一个个的Token。 例如上面的图片,在句子 “We love NLP” 中, “We”、“love”、“NLP” 分别是三个Token。 而在中文的处理 …

  3. 我国日均 Token 消耗量已突破 30 万亿,这是一个什么量级的概 …

    假设咱们就把 30万亿 Token 数 当做 30万亿字数,来看看这是个什么规模的数据: 第 12 版《新华字典》总字数约 72 万字,日均 Token 消耗 30万亿,至少相当于 4166 万本 《新华字典》。

  4. 【5分钟背八股】什么是 Token?什么是 JWT?如何基于Token进行身 …

    Token是指一串代表某个用户身份信息的字符串。Token通常包含了用户的身份认证信息以及访问权限等相关信息,可以用于在不同的系统和服务之间进行身份验证和授权控制。 JWT(JSON …

  5. 知乎 - 有问题,就会有答案

    知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业 …

  6. 如何减少大模型 token 的消耗? - 知乎

    看到这个问题,深有同感!在大模型的世界里,token 就像是对话的“燃料”,用多了钱包疼,用少了信息不够。如何让大模型输出既精炼又实用,确实是日常使用中的一个重要课题。 我个人的 …

  7. 在中文 NLP 等论文中,应该如何翻译 token 这个词? - 知乎

    Jun 22, 2021 · 在NLP里面,A token is a string of contiguous characters between two spaces, or between a space and punctuation marks. A token can also be an integer, real, or a number …

  8. 视觉Transformer中的token具体指什么,如何理解? - 知乎

    token也可以由patch embedding得到(你可以去看看 2022年 CVPR的MixFormer),但是token貌似比patch要小一点,有的地方说token可以理解为一个像素,并且包含该像素点的位置和类别 …

  9. 求问deepseek出现这种情况怎么办啊? - 知乎

    Jan 31, 2025 · DeepSeek 不是告诉你原因和解法了嘛。 原因:当前对话已超出深度思考的最大长度限制 解法:开启一个新对话继续思考吧 至于具体解释,得看这几个参数,DeepSeek R1 的 …

  10. 如何看待 Google 最新开源的 Gemma-3 系列大模型? - 知乎

    Gemma-3花了600多秒,估计是token超了,结果还处于死循环中,可以看到它对于数学和逻辑表现出的性能非常的差。 QwQ32B,干脆利落,直接解决了。 按现在的趋势来看,未来的天下 …