<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      大模型 Token 究竟是啥:圖解大模型Token

      前幾天,一個朋友問我:“大模型中的 Token 究竟是什么?”

      這確實是一個很有代表性的問題。許多人聽說過 Token 這個概念,但未必真正理解它的作用和意義。思考之后,我決定寫篇文章,詳細解釋這個話題。

      我說:像 DeepSeekChatGPT 這樣的超大語言模型,都有一個“刀法精湛”的小弟——分詞器(Tokenizer。

      大模型收到一段文字。

      會讓分詞器把它切成很多個小塊。

      這切出來的每一個小塊就叫做一個 Token。

      比如這段話(我喜歡唱、跳、Rap和籃球),在大模型里可能會被切成這個樣子。

      單個漢字,可能是一個 Token。

      兩個漢字構成的詞語,也可能是一個 Token。

      三個字構成的常見短語,也可能是一個 Token。

      一個標點符號,也可能是一個 Token

      一個單詞,或者是幾個字母組成的一個詞綴,也可能是一個 Token。

      大模型在輸出文字的時候,也是一個 Token 一個 Token 的往外蹦,所以看起來可能有點像在打字一樣。

      朋友聽完以后,好像更疑惑了:

      于是,我決定換一個方式,給他通俗解釋一下。

      大模型的Token究竟是啥,以及為什么會是這樣。

      首先,請大家快速讀一下這幾個字:

      是不是有點沒有認出來,或者是需要愣兩秒才可以認出來?

      但是如果這些字出現在詞語或者成語里,你瞬間就可以念出來。

      那之所以會這樣,是因為我們的大腦在日常生活中喜歡把這些有含義的詞語或者短語,優先作為一個整體來對待。

      不到萬不得已,不會去一個字一個字的摳。

      這就導致我們對這些詞語還挺熟悉單看這些字(旯妁圳侈邯)的時候,反而會覺得有點陌生。

      而大腦??之所以要這么做,是因為這樣可以節省腦力,咱們的大腦還是非常懂得偷懶的。

      比如 “今天天氣不錯” 這句話,如果一個字一個字的去處理,一共需要有6個部分。

      但是如果劃分成3個、常見有意義的詞。

      就只需要處理3個部分之間的關系,從而提高效率節省腦力。

      既然人腦可以這么做,那人工智能也可以這么做。

      所以就有了分詞器,專門幫大模型把大段的文字,拆解成大小合適的一個個 Token

      不同的分詞器,它的分詞方法和結果不一樣。

      分得越合理,大模型就越輕松。這就好比餐廳里負責切菜的切配工,它的刀功越好,主廚做起菜來當然就越省事。

      分詞器究竟是怎么分的詞呢?

      其中一種方法大概是這樣,分詞器統計了大量文字以后,發現 “蘋果” 這兩個字,經常一起出現。

      就把它們打包成一個 Token,給它一個數字編號,比如 19416。

      然后丟到一個大的詞匯表里。

      這樣下次再看到 “蘋果” 這兩個字的時候,就可以直接認出這個組合就可以了。

      然后它可能又發現 “雞” 這個字經常出現,并且可以搭配不同的其他字

      于是它就把 “雞” 這個字,打包成一個 Token,給它配一個數字編號,比如 76074

      并且丟到詞匯表里。

      它又發現 “ing” 這三個字母經常一起出現。

      于是又把 “ing”三個字母打包成一個 Token,給它配一個數字編號,比如 288

      并且收錄到詞匯表里。

      它又發現 “逗號” 經常出現。

      于是又把 “逗號” 也打包作為一個 Token,給它配一個數字編號,比如 14。

      收錄到詞匯表里。

      經過大量統計收集,分詞器就可以得到一個龐大的Token表。

      可能有5萬個10萬個,甚至更多Token,可以囊括我們日常見到的各種符號等等。

      這樣一來,大模型在輸入輸出的時候,都只需要面對一堆數字編號就可以了。

      再由分詞器按照Token表,轉換成人類可以看懂文字符號。

      這樣一分工,工作效率就非常高。

      有這么一個網站 Tiktokenizerhttps://tiktokenizer.vercel.app

      輸入一段話,它就可以告訴你,這段話是由幾個Token構成的,分別是什么,以及這幾個Token的編號分別是多少。

      我來演示一下,這個網站有很多模型可以選擇,像 GPT-4o、DeepSeek、LLaMA 等等。

      我選的是 DeepSeek,我輸入 “哈哈”,顯示是一個 Token,編號是 11433

      “哈哈哈”,也是一個 Token,編號是 40886

      4“哈”,還是一個 Token,編號是 59327

      但是5“哈”,就變成了兩個Token,編號分別是 11433, 40886

      說明大家平常用兩個 “哈” 或者三個的更多。

      再來,“一心一意” 是三個 Token。

      “雞蛋” 是一個 Token。

      但是 “鴨蛋” 是兩個 Token。

      “關羽” 是一個 Token。

      “張飛” 是兩個 Token。

      “孫悟空” 是一個 Token。

      “沙悟凈” 是三個 Token。

      另外,正如前面提到的,不同模型的分詞器可能會有不同的切分結果。比如,“蘋果” 中的 “” 字,在 DeepSeek 中被拆分成兩個 Token。

      但是在 Qwen 模型里卻是一個 Token。

      所以回過頭來看,Token 到底是什么?

      它就是構建大模型世界的一塊塊積木。

      大模型之所以能理解和生成文本,就是通過計算這些 Token 之間的關系,來預測下一個最可能出現的 Token。

      這就是為什么幾乎所有大模型公司都按照 Token 數量計費,因為 Token 數量直接對應背后的計算成本。

      Token” 這個詞不僅用于人工智能領域,在其他領域也經常出現。其實,它們只是恰好都叫這個名字而已。

      就像同樣都是 “車?!?/strong>,汽車模型車展模特,雖然用詞相同,但含義卻截然不同。

      FAQ

      1. 蘋為啥會是2個?

      因為“蘋” 字單獨出現的概率太低,無法獨立成為一個 Token。

      2. 為什么張飛算兩個 Token?

      “張” 和 “飛” 一起出現的頻率不夠高,或者“ 張” 字和 “飛” 字的搭配不夠穩定,經常與其他字組合,因此被拆分為兩個 Token。


      Token 在大模型方面最好的翻譯是 '詞元' 非常的信雅達。

      歡迎關注我的微信公眾號【程序員 NEO】!

      這里有豐富的技術分享、實用的編程技巧、深度解析微服務架構,還有更多精彩內容等你探索!??

      posted @ 2025-04-01 09:24  BNTang  閱讀(2743)  評論(12)    收藏  舉報
      主站蜘蛛池模板: 国产欧美久久一区二区| 人人爽人人爽人人片a免费| 国产情侣激情在线对白| 国产乱码1卡二卡3卡四卡5 | 亚洲AV色香蕉一区二区蜜桃小说| 成年男女免费视频网站| 精品国产第一国产综合精品| 国产一区二区高清不卡| 97在线视频人妻无码| 无套内谢少妇毛片aaaa片免费 | 国产精品九九九一区二区| 国产精品无码av不卡| 精品久久8x国产免费观看| 久久精品熟女亚洲av麻| 国产成人综合亚洲精品国产| 污污污污污污WWW网站免费| 日韩乱码人妻无码中文字幕视频 | 欧美 亚洲 另类 丝袜 自拍 动漫| 国产免费午夜福利片在线| 中文国产乱码在线人妻一区二区| 安阳市| 国产久免费热视频在线观看| 国产午夜精品福利91| 宜昌市| 色综合天天色综合久久网| 中文字幕av日韩有码| 精品国产自在久久现线拍| av高清无码 在线播放| 色秀网在线观看视频免费| 真实国产老熟女无套中出| 风韵丰满熟妇啪啪区老熟熟女| 国产成人精品久久性色av| 午夜福利看片在线观看| 亚洲高潮喷水无码AV电影| 亚洲色大成网站www看下面| 久久碰国产一区二区三区| 亚洲av日韩av永久无码电影| 精品无码一区在线观看| 永久免费AV无码网站大全| 377P欧洲日本亚洲大胆| 国产精品一区二区麻豆蜜桃|