字符集编码详解
http://blog.chinaunix.net/uid-90129-id-132794.html
?
參考文章一
?
字符,字節和編碼
1.?編碼問題的由來,相關概念的理解1.1?字符與編碼的發展從計算機對多國語言的支持角度看,大致可以分為三個階段:
| 系統內碼 | 說明 | 系統 | |
| 階段一 | ASCII | 計算機剛開始只支持英語,其它語言不能夠在計算機上存儲和顯示。 | 英文?DOS |
| 階段二 | ANSI編碼 | 為使計算機支持更多語言,通常使用?0x80~0xFF?范圍的?2?個字節來表示?1?個字符。比如:漢字?\'中\'?在中文操作系統中,使用?[0xD6,0xD0]?這兩個字節存儲。 | 中文?DOS,中文?Windows 95/98,日文?Windows 95/98 |
| 階段三 | UNICODE | 為了使國際間信息交流更加方便,國際組織制定了?UNICODE?字符集,為各種語言中的每一個字符設定了統一并且唯一的數字編號,以滿足跨語言、跨平臺進行文本轉換、處理的要求。 | Windows NT/2000/XP,Linux,Java |
字符串在內存中的存放方法:
在?ASCII?階段,單字節字符串使用一個字節存放一個字符(SBCS)。比如,Bob123?在內存中為:
| 42 | 6F | 62 | 31 | 32 | 33 | 00 |
| B | o | b | 1 | 2 | 3 | \\0 |
在使用?ANSI?編碼支持多種語言階段,每個字符使用一個字節或多個字節來表示(MBCS),因此,這種方式存放的字符也被稱作多字節字符。比如,中文123?在中文?Windows 95?內存中為7個字節,每個漢字占2個字節,每個英文和數字字符占1個字節:
| D6 | D0 | CE | C4 | 31 | 32 | 33 | 00 |
| 中 | 文 | 1 | 2 | 3 | \\0 | ||
在?UNICODE?被采用之后,計算機存放字符串時,改為存放每個字符在?UNICODE?字符集中的序號。目前計算機一般使用?2?個字節(16?位)來存放一個序號(DBCS),因此,這種方式存放的字符也被稱作寬字節字符。比如,字符串?中文123?在?Windows 2000?下,內存中實際存放的是?5?個序號:
| 2D | 4E | 87 | 65 | 31 | 00 | 32 | 00 | 33 | 00 | 00 | 00 | ? ???←?在?x86 CPU?中,低字節在前 |
| 中 | 文 | 1 | 2 | 3 | \\0 | |||||||
一共占?10?個字節。
| [img][/img] | |||
|
1.2?字符,字節,字符串理解編碼的關鍵,是要把字符的概念和字節的概念理解準確。這兩個概念容易混淆,我們在此做一下區分:
| 概念描述 | 舉例 | |
| 字符 | 人們使用的記號,抽象意義上的一個符號。 | \'1\', \'中\', \'a\', \'$\', \'¥\', …… |
| 字節 | 計算機中存儲數據的單元,一個8位的二進制數,是一個很具體的存儲空間。 | 0x01, 0x45, 0xFA, …… |
| ANSI | 在內存中,如果“字符”是以?ANSI?編碼形式存在的,一個字符可能使用一個字節或多個字節來表示,那么我們稱這種字符串為?ANSI?字符串或者多字節字符串。 | 中文123 |
| UNICODE | 在內存中,如果“字符”是以在?UNICODE?中的序號存在的,那么我們稱這種字符串為?UNICODE?字符串或者寬字節字符串。 | L中文123 |
由于不同?ANSI?編碼所規定的標準是不相同的,因此,對于一個給定的多字節字符串,我們必須知道它采用的是哪一種編碼規則,才能夠知道它包含了哪些“字符”。而對于?UNICODE?字符串來說,不管在什么環境下,它所代表的“字符”內容總是不變的。
| [img][/img] | |||
|
1.3?字符集與編碼各個國家和地區所制定的不同?ANSI?編碼標準中,都只規定了各自語言所需的“字符”。比如:漢字標準(GB2312)中沒有規定韓國語字符怎樣存儲。這些?ANSI?編碼標準所規定的內容包含兩層含義:
1.???????使用哪些字符。也就是說哪些漢字,字母和符號會被收入標準中。所包含“字符”的集合就叫做“字符集”。
2.???????規定每個“字符”分別用一個字節還是多個字節存儲,用哪些字節來存儲,這個規定就叫做“編碼”。
各個國家和地區在制定編碼標準的時候,“字符的集合”和“編碼”一般都是同時制定的。因此,平常我們所說的“字符集”,比如:GB2312, GBK, JIS?等,除了有“字符的集合”這層含義外,同時也包含了“編碼”的含義。
“UNICODE?字符集”包含了各種語言中使用到的所有“字符”。用來給?UNICODE?字符集編碼的標準有很多種,比如:UTF-8, UTF-7, UTF-16, UnicodeLittle, UnicodeBig?等。
| [img][/img] | |||
|
1.4?常用的編碼簡介簡單介紹一下常用的編碼規則,為后邊的章節做一個準備。在這里,我們根據編碼規則的特點,把所有的編碼分成三類:
| 分類 | 編碼標準 | 說明 |
| 單字節字符編碼 | ISO-8859-1 | 最簡單的編碼規則,每一個字節直接作為一個?UNICODE?字符。比如,[0xD6, 0xD0]?這兩個字節,通過?iso-8859-1?轉化為字符串時,將直接得到?[0x00D6, 0x00D0]?兩個?UNICODE?字符,即??Ð。 |
| ANSI?編碼 | GB2312, | 把?UNICODE?字符串通過?ANSI?編碼轉化為“字節串”時,根據各自編碼的規定,一個?UNICODE?字符可能轉化成一個字節或多個字節。 |
| UNICODE編碼 | UTF-8, | 與“ANSI?編碼”類似的,把字符串通過?UNICODE?編碼轉化成“字節串”時,一個?UNICODE?字符可能轉化成一個字節或多個字節。 |
我們實際上沒有必要去深究每一種編碼具體把某一個字符編碼成了哪幾個字節,我們只需要知道“編碼”的概念就是把“字符”轉化成“字節”就可以了。對于“UNICODE?編碼”,由于它們是可以通過計算得到的,因此,在特殊的場合,我們可以去了解某一種“UNICODE?編碼”是怎樣的規則。
| [img][/img] | |||
|
2.?字符與編碼在程序中的實現2.1?程序中的字符與字節在?C++?和?Java?中,用來代表“字符”和“字節”的數據類型,以及進行編碼的方法:
| 類型或操作 | C++ | Java |
| 字符 | wchar_t | char |
| 字節 | char | byte |
| ANSI?字符串 | char[] | byte[] |
| UNICODE?字符串 | wchar_t[] | String |
| 字節串→字符串 | mbstowcs(), MultiByteToWideChar() | string = new String(bytes, encoding) |
| 字符串→字節串 | wcstombs(), WideCharToMultiByte() | bytes = string.getBytes(encoding) |
以上需要注意幾點:
1.???????Java?中的?char?代表一個“UNICODE?字符(寬字節字符)”,而?C++?中的?char?代表一個字節。
2.???????MultiByteToWideChar()?和?WideCharToMultiByte()?是?Windows API?函數。
| [img][/img] | |||
|
2.2 C++?中相關實現方法聲明一段字符串常量:
| // ANSI?字符串,內容長度?7?字節 |
UNICODE?字符串的?I/O?操作,字符與字節的轉換操作:
| //?運行時設定當前?ANSI?編碼,VC?格式 |
在?Visual C++?中,UNICODE?字符串常量有更簡單的表示方法。如果源程序的編碼與當前默認?ANSI?編碼不符,則需要使用?#pragma setlocale,告訴編譯器源程序使用的編碼:
| //?如果源程序的編碼與當前默認?ANSI?編碼不一致, |
以上需要注意?#pragma setlocale?與?setlocale(LC_ALL, )?的作用是不同的,#pragma setlocale?在編譯時起作用,setlocale()?在運行時起作用。
| [img][/img] | |||
|
2.3 Java?中相關實現方法字符串類?String?中的內容是?UNICODE?字符串:
| // Java?代碼,直接寫中文 |
字符串?I/O?操作,字符與字節轉換操作。在?Java?包?java.io.*?中,以“Stream”結尾的類一般是用來操作“字節串”的類,以“Reader”,“Writer”結尾的類一般是用來操作“字符串”的類。
| //?字符串與字節串間相互轉化 |
如果?java?的源程序編碼與當前默認?ANSI?編碼不符,則在編譯的時候,需要指明一下源程序的編碼。比如:
| E:\\>javac?-encoding BIG5?Hello.java |
以上需要注意區分源程序的編碼與?I/O?操作的編碼,前者是在編譯時起作用,后者是在運行時起作用。
| [img][/img] | |||
|
3.?幾種誤解,以及亂碼產生的原因和解決辦法3.1?容易產生的誤解
| 對編碼的誤解 | |
| 誤解一 | 在將“字節串”轉化成“UNICODE?字符串”時,比如在讀取文本文件時,或者通過網絡傳輸文本時,容易將“字節串”簡單地作為單字節字符串,采用每“一個字節”就是“一個字符”的方法進行轉化。 |
| 誤解二 | 在?DOS,Windows 98?等非?UNICODE?環境下,字符串都是以?ANSI?編碼的字節形式存在的。這種以字節形式存在的字符串,必須知道是哪種編碼才能被正確地使用。這使我們形成了一個慣性思維:“字符串的編碼”。 |
第一種誤解,往往是導致亂碼產生的原因。第二種誤解,往往導致本來容易糾正的亂碼問題變得更復雜。
在這里,我們可以看到,其中所講的“誤解一”,即采用每“一個字節”就是“一個字符”的轉化方法,實際上也就等同于采用?iso-8859-1?進行轉化。因此,我們常常使用?bytes = string.getBytes(iso-8859-1)?來進行逆向操作,得到原始的“字節串”。然后再使用正確的?ANSI?編碼,比如?string = new String(bytes, GB2312),來得到正確的“UNICODE?字符串”。
| [img][/img] | |||
|
3.2?非?UNICODE?程序在不同語言環境間移植時的亂碼非?UNICODE?程序中的字符串,都是以某種?ANSI?編碼形式存在的。如果程序運行時的語言環境與開發時的語言環境不同,將會導致?ANSI?字符串的顯示失敗。
比如,在日文環境下開發的非?UNICODE?的日文程序界面,拿到中文環境下運行時,界面上將顯示亂碼。如果這個日文程序界面改為采用?UNICODE?來記錄字符串,那么當在中文環境下運行時,界面上將可以顯示正常的日文。
由于客觀原因,有時候我們必須在中文操作系統下運行非?UNICODE?的日文軟件,這時我們可以采用一些工具,比如,南極星,AppLocale?等,暫時的模擬不同的語言環境。
| [img][/img] | |||
|
3.3?網頁提交字符串當頁面中的表單提交字符串時,首先把字符串按照當前頁面的編碼,轉化成字節串。然后再將每個字節轉化成?%XX?的格式提交到?Web?服務器。比如,一個編碼為?GB2312?的頁面,提交?中?這個字符串時,提交給服務器的內容為?%D6%D0。
在服務器端,Web?服務器把收到的?%D6%D0?轉化成?[0xD6, 0xD0]?兩個字節,然后再根據?GB2312?編碼規則得到?中?字。
在?Tomcat?服務器中,request.getParameter()?得到亂碼時,常常是因為前面提到的“誤解一”造成的。默認情況下,當提交?%D6%D0?給?Tomcat?服務器時,request.getParameter()?將返回?[0x00D6, 0x00D0]?兩個?UNICODE?字符,而不是返回一個?中?字符。因此,我們需要使用?bytes = string.getBytes(iso-8859-1)?得到原始的字節串,再用?string = new String(bytes, GB2312)?重新得到正確的字符串?中。
| [img][/img] | |||
|
3.4?從數據庫讀取字符串通過數據庫客戶端(比如?ODBC?或?JDBC)從數據庫服務器中讀取字符串時,客戶端需要從服務器獲知所使用的?ANSI?編碼。當數據庫服務器發送字節流給客戶端時,客戶端負責將字節流按照正確的編碼轉化成?UNICODE?字符串。
如果從數據庫讀取字符串時得到亂碼,而數據庫中存放的數據又是正確的,那么往往還是因為前面提到的“誤解一”造成的。解決的辦法還是通過?string = new String( string.getBytes(iso-8859-1), GB2312)?的方法,重新得到原始的字節串,再重新使用正確的編碼轉化成字符串。
| [img][/img] | |||
|
3.5?電子郵件中的字符串當一段?Text?或者?HTML?通過電子郵件傳送時,發送的內容首先通過一種指定的字符編碼轉化成“字節串”,然后再把“字節串”通過一種指定的傳輸編碼(Content-Transfer-Encoding)進行轉化得到另一串“字節串”。比如,打開一封電子郵件源代碼,可以看到類似的內容:
| Content-Type: text/plain; |
最常用的?Content-Transfer-Encoding?有?Base64?和?Quoted-Printable?兩種。在對二進制文件或者中文文本進行轉化時,Base64?得到的“字節串”比?Quoted-Printable?更短。在對英文文本進行轉化時,Quoted-Printable?得到的“字節串”比?Base64?更短。
郵件的標題,用了一種更簡短的格式來標注“字符編碼”和“傳輸編碼”。比如,標題內容為?中,則在郵件源代碼中表示為:
| //?正確的標題格式 |
其中,
- 第一個“=?”與“?”中間的部分指定了字符編碼,在這個例子中指定的是?GB2312。
- “?”與“?”中間的“B”代表?Base64。如果是“Q”則代表?Quoted-Printable。
- 最后“?”與“?=”之間的部分,就是經過?GB2312?轉化成字節串,再經過?Base64?轉化后的標題內容。
如果“傳輸編碼”改為?Quoted-Printable,同樣,如果標題內容為?中:
| //?正確的標題格式 |
如果閱讀郵件時出現亂碼,一般是因為“字符編碼”或“傳輸編碼”指定有誤,或者是沒有指定。比如,有的發郵件組件在發送郵件時,標題?中:
| //?錯誤的標題格式 |
這樣的表示,實際上是明確指明了標題為?[0x00D6, 0x00D0],即??Ð,而不是?中。
4.?幾種錯誤理解的糾正
誤解:“ISO-8859-1?是國際編碼?”非也。iso-8859-1?只是單字節字符集中最簡單的一種,也就是“字節編號”與“UNICODE?字符編號”一致的那種編碼規則。當我們要把一個“字節串”轉化成“字符串”,而又不知道它是哪一種?ANSI?編碼時,先暫時地把“每一個字節”作為“一個字符”進行轉化,不會造成信息丟失。然后再使用?bytes = string.getBytes(iso-8859-1)?的方法可恢復到原始的字節串。
誤解:“Java?中,怎樣知道某個字符串的內碼?”Java?中,字符串類?java.lang.String?處理的是?UNICODE?字符串,不是?ANSI?字符串。我們只需要把字符串作為“抽象的符號的串”來看待。因此不存在字符串的內碼的問題。
?
參考文章二
?
Unicode字符編碼規范
http://www.aoxiang.org 2006-4-2 10:48:02?
Unicode是一種字符編碼規范?。
先從ASCII說起。ASCII是用來表示英文字符的一種編碼規范,每個ASCII字符占用1個字節(8bits)?
因此,ASCII編碼可以表示的最大字符數是256,其實英文字符并沒有那么多,一般只用前128個(最高位為0),其中包括了控制字符、數字、大小寫字母和其他一些符號?
。
而最高位為1的另128個字符被成為“擴展ASCII”,一般用來存放英文的制表符、部分音標字符等等的一些其他符號,這種字符編碼規范顯然用來處理英文沒有什么問題。(實際上也可以用來處理法文、德文等一些其他的西歐字符,但是不能和英文通用),但是面對中文、阿拉伯文之類復雜的文字,255個字符顯然不夠用?
于是,各個國家紛紛制定了自己的文字編碼規范,其中中文的文字編碼規范叫做“GB2312-80”,它是和ASCII兼容的一種編碼規范,其實就是利用擴展ASCII沒有真正標準化這一點,把一個中文字符用兩個擴展ASCII字符來表示。?
但是這個方法有問題,最大的問題就是,中文文字沒有真正屬于自己的編碼,因為擴展ASCII碼雖然沒有真正的標準化,但是PC里的ASCII碼還是有一個事實標準的(存放著英文制表符),所以很多軟件利用這些符號來畫表格。這樣的軟件用到中文系統中,這些表格符就會被誤認作中文字,破壞版面。而且,統計中英文混合字符串中的字數,也是比較復雜的,我們必須判斷一個ASCII碼是否擴展,以及它的下一個ASCII是否擴展,然后才“猜”那可能是一個中文字?
。
總之當時處理中文是很痛苦的。而更痛苦的是GB2312是國家標準,臺灣當時有一個Big5編碼標準,很多編碼和GB是相同的,所以……,嘿嘿。?
這時候,我們就知道,要真正解決中文問題,不能從擴展ASCII的角度入手,也不能僅靠中國一家來解決。而必須有一個全新的編碼系統,這個系統要可以將中文、英文、法文、德文……等等所有的文字統一起來考慮,為每個文字都分配一個單獨的編碼,這樣才不會有上面那種現象出現。?
于是,Unicode誕生了。?
Unicode有兩套標準,一套叫UCS-2(Unicode-16),用2個字節為字符編碼,另一套叫UCS-4(Unicode-32),用4個字節為字符編碼。?
以目前常用的UCS-2為例,它可以表示的字符數為2^16=65535,基本上可以容納所有的歐美字符和絕大部分的亞洲字符?
。
UTF-8的問題后面會提到?。
在Unicode里,所有的字符被一視同仁。漢字不再使用“兩個擴展ASCII”,而是使用“1個Unicode”,注意,現在的漢字是“一個字符”了,于是,拆字、統計字數這些問題也就自然而然的解決了?
。
但是,這個世界不是理想的,不可能在一夜之間所有的系統都使用Unicode來處理字符,所以Unicode在誕生之日,就必須考慮一個嚴峻的問題:和ASCII字符集之間的不兼容問題。?
我們知道,ASCII字符是單個字節的,比如“A”的ASCII是65。而Unicode是雙字節的,比如“A”的Unicode是0065,這就造成了一個非常大的問題:以前處理ASCII的那套機制不能被用來處理Unicode了?
。
另一個更加嚴重的問題是,C語言使用'\0'作為字符串結尾,而Unicode里恰恰有很多字符都有一個字節為0,這樣一來,C語言的字符串函數將無法正常處理Unicode,除非把世界上所有用C寫的程序以及他們所用的函數庫全部換掉?
。
于是,比Unicode更偉大的東東誕生了,之所以說它更偉大是因為它讓Unicode不再存在于紙上,而是真實的存在于我們大家的電腦中。那就是:UTF。
UTF= UCS Transformation Format UCS轉換格式,它是將Unicode編碼規則和計算機的實際編碼對應起來的一個規則。現在流行的UTF有2種:UTF-8和UTF-16?
。
其中UTF-16和上面提到的Unicode本身的編碼規范是一致的,這里不多說了。而UTF-8不同,它定義了一種“區間規則”,這種規則可以和ASCII編碼保持最大程度的兼容?
。
UTF-8有點類似于Haffman編碼,它將Unicode編碼為00000000-0000007F的字符,用單個字節來表示;?
00000080-000007FF的字符用兩個字節表示?
00000800-0000FFFF的字符用3字節表示?
因為目前為止Unicode-16規范沒有指定FFFF以上的字符,所以UTF-8最多是使用3個字節來表示一個字符。但理論上來說,UTF-8最多需要用6字節表示一個字符。?
在UTF-8里,英文字符仍然跟ASCII編碼一樣,因此原先的函數庫可以繼續使用。而中文的編碼范圍是在0080-07FF之間,因此是2個字節表示(但這兩個字節和GB編碼的兩個字節是不同的),用專門的Unicode處理類可以對UTF編碼進行處理。?
下面說說中文的問題。?
由于歷史的原因,在Unicode之前,一共存在過3套中文編碼標準。?
GB2312-80,是中國大陸使用的國家標準,其中一共編碼了6763個常用簡體漢字。Big5,是臺灣使用的編碼標準,編碼了臺灣使用的繁體漢字,大概有8千多個。HKSCS,是中國香港使用的編碼標準,字體也是繁體,但跟Big5有所不同。?
這3套編碼標準都采用了兩個擴展ASCII的方法,因此,幾套編碼互不兼容,而且編碼區間也各有不同?
因為其不兼容性,在同一個系統中同時顯示GB和Big5基本上是不可能的。當時的南極星、RichWin等等軟件,在自動識別中文編碼、自動顯示正確編碼方面都做了很多努力。
他們用了怎樣的技術我就不得而知了,我知道好像南極星曾經以同屏顯示繁簡中文為賣點。?
后來,由于各方面的原因,國際上又制定了針對中文的統一字符集GBK和GB18030,其中GBK已經在Windows、Linux等多種操作系統中被實現。?
GBK兼容GB2312,并增加了大量不常用漢字,還加入了幾乎所有的Big5中的繁體漢字。但是GBK中的繁體漢字和Big5中的幾乎不兼容。?
GB18030相當于是GBK的超集,比GBK包含的字符更多。據我所知目前還沒有操作系統直接支持GB18030。?
談談Unicode編碼,簡要解釋UCS、UTF、BMP、BOM等名詞
這是一篇程序員寫給程序員的趣味讀物。所謂趣味是指可以比較輕松地了解一些原來不清楚的概念,增進知識,類似于打RPG游戲的升級。整理這篇文章的動機是兩個問題:
問題一:
使用Windows記事本的“另存為”,可以在GBK、Unicode、Unicode big?
endian和UTF-8這幾種編碼方式間相互轉換。同樣是txt文件,Windows是怎樣識別編碼方式的呢?
我很早前就發現Unicode、Unicode big endian和UTF-8編碼的txt文件的開頭會多出幾個字節,分別是FF、FE(Unicode),FE、FF(Unicode big endian),EF、BB、BF(UTF-8)。但這些標記是基于什么標準呢?
問題二:
最近在網上看到一個ConvertUTF.c,實現了UTF-32、UTF-16和UTF-8這三種編碼方式的相互轉換。對于Unicode(UCS2)、GBK、UTF-8這些編碼方式,我原來就了解。但這個程序讓我有些糊涂,想不起來UTF-16和UCS2有什么關系。
查了查相關資料,總算將這些問題弄清楚了,順帶也了解了一些Unicode的細節。寫成一篇文章,送給有過類似疑問的朋友。本文在寫作時盡量做到通俗易懂,但要求讀者知道什么是字節,什么是十六進制。
0、big endian和little endian
big endian和little?
endian是CPU處理多字節數的不同方式。例如“漢”字的Unicode編碼是6C49。那么寫到文件里時,究竟是將6C寫在前面,還是將49寫在前面?如果將6C寫在前面,就是big endian。還是將49寫在前面,就是little endian。
“endian”這個詞出自《格列佛游記》。小人國的內戰就源于吃雞蛋時是究竟從大頭(Big-Endian)敲開還是從小頭(Little-Endian)敲開,由此曾發生過六次叛亂,其中一個皇帝送了命,另一個丟了王位。
我們一般將endian翻譯成“字節序”,將big endian和little endian稱作“大尾”和“小尾”。
1、字符編碼、內碼,順帶介紹漢字編碼
字符必須編碼后才能被計算機處理。計算機使用的缺省編碼方式就是計算機的內碼。早期的計算機使用7位的ASCII編碼,為了處理漢字,程序員設計了用于簡體中文的GB2312和用于繁體中文的big5。
GB2312(1980年)一共收錄了7445個字符,包括6763個漢字和682個其它符號。漢字區的內碼范圍高字節從B0-F7,低字節從A1-FE,占用的碼位是72*94=6768。其中有5個空位是D7FA-D7FE。
GB2312支持的漢字太少。1995年的漢字擴展規范GBK1.0收錄了21886個符號,它分為漢字區和圖形符號區。漢字區包括21003個字符。2000年的GB18030是取代GBK1.0的正式國家標準。該標準收錄了27484個漢字,同時還收錄了藏文、蒙文、維吾爾文等主要的少數民族文字。現在的PC平臺必須支持GB18030,對嵌入式產品暫不作要求。所以手機、MP3一般只支持GB2312。
從ASCII、GB2312、GBK到GB18030,這些編碼方法是向下兼容的,即同一個字符在這些方案中總是有相同的編碼,后面的標準支持更多的字符。在這些編碼中,英文和中文可以統一地處理。區分中文編碼的方法是高字節的最高位不為0。按照程序員的稱呼,GB2312、GBK到GB18030都屬于雙字節字符集?
(DBCS)。
有的中文Windows的缺省內碼還是GBK,可以通過GB18030升級包升級到GB18030。不過GB18030相對GBK增加的字符,普通人是很難用到的,通常我們還是用GBK指代中文Windows內碼。
這里還有一些細節:
GB2312的原文還是區位碼,從區位碼到內碼,需要在高字節和低字節上分別加上A0。
在DBCS中,GB內碼的存儲格式始終是big endian,即高位在前。
GB2312的兩個字節的最高位都是1。但符合這個條件的碼位只有128*128=16384個。所以GBK和GB18030的低字節最高位都可能不是1。不過這不影響DBCS字符流的解析:在讀取DBCS字符流時,只要遇到高位為1的字節,就可以將下兩個字節作為一個雙字節編碼,而不用管低字節的高位是什么。
2、Unicode、UCS和UTF
前面提到從ASCII、GB2312、GBK到GB18030的編碼方法是向下兼容的。而Unicode只與ASCII兼容(更準確地說,是與ISO-8859-1兼容),與GB碼不兼容。例如“漢”字的Unicode編碼是6C49,而GB碼是BABA。
Unicode也是一種字符編碼方法,不過它是由國際組織設計,可以容納全世界所有語言文字的編碼方案。Unicode的學名"Universal?
Multiple-Octet Coded Character Set",簡稱為UCS。UCS可以看作是"Unicode Character Set"的縮寫。
根據維基百科全書(http://zh.wikipedia.org/wiki/)的記載:歷史上存在兩個試圖獨立設計Unicode的組織,即國際標準化組織(ISO)和一個軟件制造商的協會(unicode.org)。ISO開發了ISO?
10646項目,Unicode協會開發了Unicode項目。
在1991年前后,雙方都認識到世界不需要兩個不兼容的字符集。于是它們開始合并雙方的工作成果,并為創立一個單一編碼表而協同工作。從Unicode2.0開始,Unicode項目采用了與ISO?
10646-1相同的字庫和字碼。
目前兩個項目仍都存在,并獨立地公布各自的標準。Unicode協會現在的最新版本是2005年的Unicode?
4.1.0。ISO的最新標準是10646-3:2003。
UCS規定了怎么用多個字節表示各種文字。怎樣傳輸這些編碼,是由UTF(UCS Transformation Format)規范規定的,常見的UTF規范包括UTF-8、UTF-7、UTF-16。
IETF的RFC2781和RFC3629以RFC的一貫風格,清晰、明快又不失嚴謹地描述了UTF-16和UTF-8的編碼方法。我總是記不得IETF是Internet Engineering Task Force的縮寫。但IETF負責維護的RFC是Internet上一切規范的基礎。
3、UCS-2、UCS-4、BMP
UCS有兩種格式:UCS-2和UCS-4。顧名思義,UCS-2就是用兩個字節編碼,UCS-4就是用4個字節(實際上只用了31位,最高位必須為0)編碼。下面讓我們做一些簡單的數學游戲:
UCS-2有2^16=65536個碼位,UCS-4有2^31=2147483648個碼位。
UCS-4根據最高位為0的最高字節分成2^7=128個group。每個group再根據次高字節分為256個plane。每個plane根據第3個字節分為256行?(rows),每行包含256個cells。當然同一行的cells只是最后一個字節不同,其余都相同。
group 0的plane 0被稱作Basic Multilingual Plane,?即BMP。或者說UCS-4中,高兩個字節為0的碼位被稱作BMP。
將UCS-4的BMP去掉前面的兩個零字節就得到了UCS-2。在UCS-2的兩個字節前加上兩個零字節,就得到了UCS-4的BMP。而目前的UCS-4規范中還沒有任何字符被分配在BMP之外。
4、UTF編碼
UTF-8就是以8位為單元對UCS進行編碼。從UCS-2到UTF-8的編碼方式如下:
UCS-2編碼(16進制) UTF-8?字節流(二進制)
0000 -?007F?0xxxxxxx
0080 - 07FF 110xxxxx 10xxxxxx
0800 - FFFF 1110xxxx 10xxxxxx 10xxxxxx?
例如“漢”字的Unicode編碼是6C49。6C49在0800-FFFF之間,所以肯定要用3字節模板了:1110xxxx 10xxxxxx 10xxxxxx。將6C49寫成二進制是:0110 110001 001001,?用這個比特流依次代替模板中的x,得到:11100110 10110001 10001001,即E6 B1 89。
讀者可以用記事本測試一下我們的編碼是否正確。
UTF-16以16位為單元對UCS進行編碼。對于小于0x10000的UCS碼,UTF-16編碼就等于UCS碼對應的16位無符號整數。對于不小于0x10000的UCS碼,定義了一個算法。不過由于實際使用的UCS2,或者UCS4的BMP必然小于0x10000,所以就目前而言,可以認為UTF-16和UCS-2基本相同。但UCS-2只是一個編碼方案,UTF-16卻要用于實際的傳輸,所以就不得不考慮字節序的問題。
5、UTF的字節序和BOM
UTF-8以字節為編碼單元,沒有字節序的問題。UTF-16以兩個字節為編碼單元,在解釋一個UTF-16文本前,首先要弄清楚每個編碼單元的字節序。例如收到一個“奎”的Unicode編碼是594E,“乙”的Unicode編碼是4E59。如果我們收到UTF-16字節流“594E”,那么這是“奎”還是“乙”?
Unicode規范中推薦的標記字節順序的方法是BOM。BOM不是“Bill Of Material”的BOM表,而是Byte Order Mark。BOM是一個有點小聰明的想法:
在UCS編碼中有一個叫做"ZERO WIDTH NO-BREAK?
SPACE"的字符,它的編碼是FEFF。而FFFE在UCS中是不存在的字符,所以不應該出現在實際傳輸中。UCS規范建議我們在傳輸字節流前,先傳輸字符"ZERO?
WIDTH NO-BREAK SPACE"。
這樣如果接收者收到FEFF,就表明這個字節流是Big-Endian的;如果收到FFFE,就表明這個字節流是Little-Endian的。因此字符"ZERO WIDTH NO-BREAK SPACE"又被稱作BOM。
UTF-8不需要BOM來表明字節順序,但可以用BOM來表明編碼方式。字符"ZERO WIDTH NO-BREAK SPACE"的UTF-8編碼是EF BB BF(讀者可以用我們前面介紹的編碼方法驗證一下)。所以如果接收者收到以EF BB?
BF開頭的字節流,就知道這是UTF-8編碼了。
Windows就是使用BOM來標記文本文件的編碼方式的。
6、進一步的參考資料
本文主要參考的資料是?"Short overview of ISO-IEC 10646 and Unicode"?
(http://www.nada.kth.se/i18n/ucs/unicode-iso10646-oview.html)。
我還找了兩篇看上去不錯的資料,不過因為我開始的疑問都找到了答案,所以就沒有看:
"Understanding Unicode A general introduction to the Unicode Standard"?
(http://scripts.sil.org/cms/scripts/page.php?site_id=nrsi&item_id=IWS-Chapter04a)
"Character set encoding basics Understanding character set encodings?
and legacy encodings"?
(http://scripts.sil.org/cms/scripts/page.php?site_id=nrsi&item_id=IWS-Chapter03)
?
參考文章三
?
|
| ? Unicode編碼(是一種全球通用的字符編碼)
UTF-8編碼 ? ASCII碼字符保持原樣,仍然只占用一個字節,對于其它國家的字符,UTF-8使用兩個或三個字節來表示。使用UTF-8編碼的文件,通常都要用EF BB BF作為文件開頭的三個字節數據。 字符的UTF-8編碼與Unicode編碼之間的轉換關系對應下列規則: ????? -? \u0001和\u007f之間的字符,UTF-8編碼為:(byte)c. ??????-? \u0000或其范圍在\u0080和\u07ff之間的字符,UTF-8編碼為: ????????????? (byte)(0xc0|(0x1f&(c>>6))),(byte)(0x80|(0x3f&c)). ????? -??\u0800和\uffff之間的字符,UTF-8編碼為: ????????????? (byte)(0xe0|0x0f&(c>>12)))),(byte)(0x80|(0x3f&(c>>6))),(byte)(0x80|(0x3f&c)) 從上圖可以看出,應用程序軟件很容易根據UTF-8編碼中那些固定不變的比特值來確定一個字符占用的是一個字節呢,還是兩個或是三個字節的,如果一個字節的第一個比特位為“0”,那么說明這個字符只占用一個字節;如果一個字節的前三個比特為“110”,這說明這個字符占用兩個字節;如果一個字節的前四個比特為“1110”,這說明這個字符占用三個字節。對于需要二個或三個字節表示的UTF-8字符,它們的第二個和第三個字節的前兩個比特位總是“10”。這樣很容易與UTF-8中只占用一個字節的字符相區分,非常便于應用程序檢測數據在傳輸過程中是不是發生了錯誤。 ? 相對Unicode編碼,UTF-8有一些顯著的優點:
? UTF-8的缺點:
使用UTF-8編碼的文件,通常都要用EF BB BF作為文件開頭的三個字節數據。 ? UTF-16編碼(兩個字節或四個字節)
|
?
?
參考文章四
?
ISO-8859-1
來自ITwiki,開放的信息技術大百科
Jump to:?navigation,?<jumptoSearch>
ISO/IEC 8859-1,又稱Latin-1或“西歐語言”,是國際標準化組織內ISO/IEC?8859的第一個8位字符集。它以ASCII為基礎,在空置的0xA0-0xFF的范圍內,加入192個字母及符號,藉以供使用變音符號的拉丁字母語言使用。
此字符集支援部分于歐洲使用的語言,包括阿爾巴尼亞語、巴斯克語、布列塔尼語、加泰羅尼亞語、丹麥語、荷蘭語、法羅語、弗里西語、加利西亞語、德語、格陵蘭語、冰島語、愛爾蘭蓋爾語、意大利語、拉丁語、盧森堡語、挪威語、葡萄牙語、里托羅曼斯語、蘇格蘭蓋爾語、西班牙語及瑞典語。
英語雖然沒有重音字母,但仍會標明為ISO?8859-1編碼。除此之外,歐洲以外的部分語言,如南非荷蘭語、斯瓦希里語、印尼語及馬來語、菲律賓他加洛語等也可使用ISO?8859-1編碼。
法語及芬蘭語本來也使用ISO?8859-1來表示。但因它沒有法語使用的??、?、???三個字母及芬蘭語使用的??、?、?、??,故于1998年被ISO/IEC?8859-15所取代。(ISO?8859-15同時加入了歐元符號)
| ISO/IEC 8859-1 | ||||||||||||||||
| ? | -0 | -1 | -2 | -3 | -4 | -5 | -6 | -7 | -8 | -9 | -A | -B | -C | -D | -E | -F |
| 0- | ? | |||||||||||||||
| 1- | ? | |||||||||||||||
| 2- | SP | ! | " | # | $ | % | & | ' | ( | ) | * | + | , | - | . | / |
| 3- | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | : | ; | <? | = | >? | ? |
| 4- | @ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O |
| 5- | P | Q | R | S | T | U | V | W | X | Y | Z | [ | \ | ] | ^ | _ |
| 6- | ` | a | b | c | d | e | f | g | h | i | j | k | l | m | n | o |
| 7- | p | q | r | s | t | u | v | w | x | y | z | { | | | } | ~ | ? |
| 8- | ? | |||||||||||||||
| 9- | ? | |||||||||||||||
| A- | NBSP | ? | ¢ | £ | ¤ | ¥ | | | § | ¨ | ? | a | ? | ? | SHY | ? | ˉ |
| B- | ° | ± | 2 | 3 | ′ | μ | ? | · | ? | 1 | o | ? | ? | ? | ? | ? |
| C- | à | á | ? | ? | ? | ? | ? | ? | è | é | ê | ? | ì | í | ? | ? |
| D- | D | ? | ò | ó | ? | ? | ? | × | ? | ù | ú | ? | ü | Y | T | ? |
| E- | à | á | a | ? | ? | ? | ? | ? | è | é | ê | ? | ì | í | ? | ? |
| F- | e | ? | ò | ó | ? | ? | ? | ÷ | ? | ù | ú | ? | ü | y | t | ? |
在上表中,0x20是空格、0xA0是不換行空格、0xAD是選擇性連接號。
0x00-0x1F、0x7F、0x80-0x9F在此字符集中未有定義。(控制字符是由ISO 6429及ISO 4873定義)。
總結
- 上一篇: 我有一个好弟弟
- 下一篇: 超声波测距仪编程_Micropython