在工作过程中,我们慢慢会了解到hex、base64、urlencode这3种常见的字节编码方案,它们是如此的熟悉,可是经常我们自己也说不清为啥要使用它们,下面我会详细解释下。
hex编码,又称十六进制编码(也称base16),一般用于方便人们查看二进制文件内容,它将字节数据中的每4个bit使用数字(0-9)、字母(A-F)共16个字符等效表示,由于一个字节有8个bit,所以一个字节会被编码为2个hex字符,具体规则如下:
Linux中可使用xxd来做hex编解码,如下:
# abc这3个英文字符会被echo编码为3个字节,然后被xxd编码为6个hex字符
$ echo -n abc|xxd -ps
616263
# 解码hex数据
$ echo 616263|xxd -ps -r
abc
base64编码,它将字节数据中的每6个bit使用字母(a-zA-Z)、数字(0-9)、+、/总共64个字符等效表示,故每3个字节(8bit)会被编码为4个base64中的字符。
由于数据中的字节数不一定是3的整数倍,当字节数对3求模后,多1个字节时,那个字节会被编码为2个字符加2个=号(填充字符),多2个字节时,这2个字节会被编码为3个字符加1个=号(填充字符),刚好整除时,则不需要=号填充,具体规则如下:
Linux下可以使用base64这个命令做base64编解码
# 3个字母等于3个字节,所以会编码为4个base64字符,并没有=号
$ echo -n abc | base64
YWJj
# 1个字节会被编码为2个base64字符,另加2个=号填充
$ echo -n a | base64
YQ==
# 2个字节会被编码为3个base64字符,另加1个=号填充
$ echo -n ab|base64
YWI=
# 解码base64数据
$ echo YWI= | base64 -d
ab
另外,base64编码有一些常见的变种,以下3种是常见的:
urlencode编码,看名字就知道是设计用来给url编码的,对于a-z,A-Z,0-9,.,-和_,urlencode都不会做任何处理原样输出,而其它字节会被编码为%xx(16进制)的形式,其中xx就是这个字节对应的hex编码。
Linux下gridsite-clients包实现了urlencode命令,如下:
$ sudo apt install gridsite-clients
$ urlencode 'a b'
a%20b
$ urlencode -d a%20b
a b
使用python也很容易实现urlencode,可将其定义为 Linux 命名别名,方便使用,如下:
alias urlencode='python -c "import sys, urllib as ul; print ul.quote_plus(sys.argv[1])"'
alias urldecode='python -c "import sys, urllib as ul; print ul.unquote_plus(sys.argv[1])"'
另外,不同的urlencode实现上也有些差异,比如某些urlencode会将空格编码为+(W3C标准规定),而另外一些实现中,空格会被编码为%20(RFC 2396)。
注:java中的URLEncoder、javascript中的encodeURIComponent、html表单提交中的application/x-www-form-urlencode,这些都会将空格编码为+,而一些web服务器在进行某些urldecode时会不认识+号,所以在使用这些函数进行urlencode编码时,最好将编码后的+替换为%20,如URLEncoder.encode(bytes, "UTF-8").replace("+", "%20")
在最开始遇到乱码问题时,在网上搜到一种 “客户端两次urlencode,服务端一次urldecode” 的乱码解决方案,并声称这样能彻底解决乱码。
然后很长一段时间我都是这样实践的,但一直不知道为什么,直到有一次我调试乱码问题调试到tomcat里面去才发现真相,原来web服务器对url都会自动做一次urldecode,urldecode后的字节使用server.xml中配置的uri-encoding字符编码转换成字符串,而如果uri-encoding这个字符编码配置与客户端使用的不同,就会出现乱码,下面用2个示例模拟一下:
String sendParam = "好";
// 使用UTF-8进行urlencode,'好'编码为 %E5%A5%BD
String urlencodeSendParam = URLEncoder.encode(sendParam, "UTF-8");
//....这里表示数据从客户端传至服务端
String urlencodeReceivedParam = urlencodeSendParam;
// 使用ISO-8859-1进行urldecode后,%E5%A5%BD解码为乱码 好 ,注意这个解码是web服务器自动进行的
String receivedParam = URLDecoder.decode(urlencodeReceivedParam, "ISO-8859-1");
// 会输出乱码 好
System.out.println(receivedParam);
String sendParam = "好";
// 使用UTF-8进行urlencode,'好'编码为%E5%A5%BD
String urlencodeSendParam = URLEncoder.encode(sendParam, "UTF-8");
// 再使用UTF-8进行urlencode,%E5%A5%BD 编码为 %25E5%25A5%25BD
String urlencodeSendParam2 = URLEncoder.encode(urlencodeSendParam, "UTF-8");
//....这里表示数据从客户端传至服务端
String urlencodeReceivedParam2 = urlencodeSendParam2;
// 使用ISO-8859-1进行urldecode后,%25E5%25A5%25BD 解码为%E5%A5%BD,注意这个解码是web服务器自动进行的
String urlencodeReceivedParam = URLDecoder.decode(urlencodeReceivedParam2, "ISO-8859-1");
// 使用UTF-8进行urldecode后,%E5%A5%BD解码为'好'
String receivedParam = URLDecoder.decode(urlencodeReceivedParam, "UTF-8");
// 会输出正确的'好'字
System.out.println(receivedParam);
从上面的两个示例中,应该不难看出,之所以前端2次编码,后端1次解码不会出现乱码,是因为前端在第1次urlencode后,数据就已经变成了纯英文,而纯英文先使用UTF-8的urlencode编码,再使用ISO-8859-1的urldecode解码,是可以完全还原数据的。另外,由于服务端的第二次urldecode是你自己写的,字符编码当然会和前端使用一致的UTF-8,故好字被无误的还原回来了。
为什么说英文可以先使用UTF-8的urlencode编码,再使用ISO-8859-1的urldecode解码呢?原因是java中的URLEncoder类其实是做了两件事,先使用字符编码将字符串转换为字节,然后对字节进行urlencode编码,因为urlencode算法本质作用就是将字节数据编码为等效的英文字符表示,只不过URLEncoder类将其封装为一步了,等效代码如下:
// 1. 使用字符编码,将字符串转换为字节串,因为urlencode是用来处理字节数据的
byte[] bytes=str.getBytes(charset);
// 2. 将字节数据,使用urlencode算法,编码为英文字符串
String urlencodeStr = urlencode(bytes);
而对于UTF-8与ISO-8859-1来说,它们都是兼容ASCII码的,所以对于纯英文的urlencode编解码,编码数据是可以正确解码的,不信你可以把ISO-8859-1变成UTF-16试试,由于UTF-16是不兼容ASCII的,所以上面的方案处理后依然为乱码。
ps,虽然这种方案基本可以完美解决乱码(基于大多数主流字符编码兼容ASCII),但由于第二次urlencode编码又会将%编码为%25,使得数据体积增大不少,所以非必要情况下,还是不要滥用比较好,能都用UTF-8就都用UTF-8吧。我以前经历过的项目都比较奇葩,多种编码混搭,才导致我要如此了解编码机制[-_-]。
注:深入理解字符编码方面,可以看看我写的这篇文章字符编码解惑
这些编码的本质作用都是将字节数据转换为等效的纯英文形式,主要用在那些不方便查看、存储或传输原始字节数据的地方。
比如在html中,因为html本身就是纯文本的,不能直接放入原始字节数据,这时,我们可以将一些小图标(非文本数据)通过base64编码的方式内嵌到html中,以使得html页面与图标数据能在一次网络交互中返回,这种方案也称Data URI。
除了hex,base64,urlencode编码之外,其实还有base32,base58这样的编码,但它们只是编码方式不同罢了,本质作用是相同的,即将字节数据转换为等效的纯英文表示,方便传输与存储。