Giải Thích Về Mã Hóa Ký Tự Unicode

Để một máy tính có thể lưu trữ văn bản và số mà con người có thể hiểu được, cần phải có một mã chuyển các ký tự thành số. Tiêu chuẩn Unicode xác định một mã như vậy bằng cách sử dụng mã hóa ký tự.

Lý do mã hóa ký tự quan trọng như vậy là để mọi thiết bị có thể hiển thị cùng một thông tin. Một lược đồ mã hóa ký tự tùy chỉnh có thể hoạt động tốt trên một máy tính, nhưng sự cố sẽ xảy ra nếu bạn gửi cùng một văn bản đó cho người khác. Nó sẽ không biết bạn đang nói gì trừ khi nó cũng hiểu được sơ đồ mã hóa.

Mã hóa ký tự

Tất cả những gì mã hóa ký tự làm là gán một số cho mọi ký tự có thể được sử dụng. Bạn có thể thực hiện một mã hóa ký tự ngay bây giờ.

Ví dụ, tôi có thể nói rằng chữ A trở thành số 13, a = 14, 1 = 33, # = 123, v.v.

Đây là nơi đưa ra các tiêu chuẩn toàn ngành. Nếu toàn bộ ngành máy tính sử dụng cùng một sơ đồ mã hóa ký tự, mọi máy tính đều có thể hiển thị các ký tự giống nhau.

Unicode là gì?

ASCII (American Standard Code for Information Interchange) đã trở thành sơ đồ mã hóa phổ biến đầu tiên. Tuy nhiên, nó chỉ giới hạn ở 128 định nghĩa ký tự. Điều này là tốt cho các ký tự, số và dấu câu tiếng Anh phổ biến nhất, nhưng hơi hạn chế đối với phần còn lại của thế giới.

Đương nhiên, phần còn lại của thế giới cũng muốn có cùng một sơ đồ mã hóa cho các ký tự của họ. Tuy nhiên, trong khi tùy thuộc vào vị trí của bạn, có thể có một ký tự khác được hiển thị cho cùng một mã ASCII.

Cuối cùng, những nơi khác trên thế giới bắt đầu tạo ra các lược đồ mã hóa của riêng họ, và mọi thứ bắt đầu trở nên hơi khó hiểu. Không chỉ có các lược đồ mã hóa có độ dài khác nhau, các chương trình cần phải tìm ra lược đồ mã hóa mà chúng được cho là sử dụng.

Rõ ràng là cần có một lược đồ mã hóa ký tự mới, đó là khi tiêu chuẩn Unicode được tạo ra. Mục tiêu của Unicode là thống nhất tất cả các sơ đồ mã hóa khác nhau để hạn chế sự nhầm lẫn giữa các máy tính càng nhiều càng tốt.

Ngày nay, tiêu chuẩn Unicode xác định các giá trị cho hơn 128.000 ký tự và có thể được nhìn thấy tại Unicode Consortium . Nó có một số dạng mã hóa ký tự:

  • UTF-8: Chỉ sử dụng một byte (8 bit) để mã hóa các ký tự tiếng Anh. Nó có thể sử dụng một chuỗi các byte để mã hóa các ký tự khác. UTF-8 được sử dụng rộng rãi trong các hệ thống email và trên internet.
  • UTF-16: Sử dụng hai byte (16 bit) để mã hóa các ký tự được sử dụng phổ biến nhất. Nếu cần, các ký tự bổ sung có thể được biểu diễn bằng một cặp số 16 bit.
  • UTF-32: Sử dụng bốn byte (32 bit) để mã hóa các ký tự. Rõ ràng là khi tiêu chuẩn Unicode phát triển, số 16 bit là quá nhỏ để đại diện cho tất cả các ký tự. UTF-32 có khả năng biểu diễn mọi ký tự Unicode dưới dạng một số.

Lưu ý: UTF có nghĩa là Đơn vị chuyển đổi Unicode.

Điểm mã

Điểm mã là giá trị mà một ký tự được đưa ra trong tiêu chuẩn Unicode. Các giá trị theo Unicode được viết dưới dạng số thập lục phân và có tiền tố là U + .

Ví dụ: để mã hóa các ký tự mà chúng ta đã xem trước đó:

  • A là U + 0041
  • a là U + 0061
  • 1 là U + 0031
  • # là U + 0023

Các điểm mã này được chia thành 17 phần khác nhau được gọi là mặt phẳng, được xác định bởi các số từ 0 đến 16. Mỗi mặt phẳng chứa 65.536 điểm mã. Mặt phẳng đầu tiên, 0, chứa các ký tự được sử dụng phổ biến nhất và được gọi là Mặt phẳng đa ngôn ngữ cơ bản (BMP).

Đơn vị mã

Các lược đồ mã hóa được tạo thành từ các đơn vị mã, được sử dụng để cung cấp chỉ mục cho vị trí của một ký tự trên một mặt phẳng.

Hãy coi UTF-16 là một ví dụ. Mỗi số 16 bit là một đơn vị mã. Các đơn vị mã có thể được chuyển đổi thành điểm mã. Ví dụ: biểu tượng nốt phẳng ♭ có mã điểm là U + 1D160 và nằm trên mặt phẳng thứ hai của tiêu chuẩn Unicode (Mặt phẳng lý tưởng bổ sung). Nó sẽ được mã hóa bằng cách sử dụng sự kết hợp của các đơn vị mã 16 bit U + D834 và U + DD60.

Đối với BMP, giá trị của điểm mã và đơn vị mã là giống hệt nhau. Điều này cho phép một phím tắt cho UTF-16 giúp tiết kiệm rất nhiều dung lượng lưu trữ. Nó chỉ cần sử dụng một số 16 bit để đại diện cho các ký tự đó.

Java sử dụng Unicode như thế nào?

Java được tạo ra vào khoảng thời gian khi tiêu chuẩn Unicode có các giá trị được xác định cho một bộ ký tự nhỏ hơn nhiều. Hồi đó, người ta cho rằng 16-bit là quá đủ để mã hóa tất cả các ký tự cần thiết. Với ý nghĩ đó, Java được thiết kế để sử dụng UTF-16. Kiểu dữ liệu char ban đầu được sử dụng để biểu thị một điểm mã Unicode 16 bit.

Kể từ Java SE v5.0, ký tự đại diện cho một đơn vị mã. Nó tạo ra sự khác biệt nhỏ đối với việc biểu diễn các ký tự trong Mặt phẳng đa ngôn ngữ cơ bản vì giá trị của đơn vị mã giống với điểm mã. Tuy nhiên, điều đó có nghĩa là đối với các ký tự trên các mặt phẳng khác, cần có hai ký tự.

Điều quan trọng cần nhớ là một kiểu dữ liệu char đơn không còn có thể đại diện cho tất cả các ký tự Unicode.

Từ khóa » để Mã Hóa Thông Tin Bộ Máy Unicode Dùng