Unicode Là Gì Và Nó được Sử Dụng Như Thế Nào? - EFERRIT.COM

Giải thích về mã hóa ký tự Unicode

Để máy tính có thể lưu trữ văn bản và số mà con người có thể hiểu, cần phải có một mã biến đổi ký tự thành số. Tiêu chuẩn Unicode định nghĩa mã như vậy bằng cách sử dụng mã hóa ký tự.

Lý do mã hóa ký tự là rất quan trọng để mọi thiết bị có thể hiển thị cùng một thông tin. Một chương trình mã hóa ký tự tùy chỉnh có thể hoạt động tốt trên một máy tính nhưng các vấn đề sẽ xảy ra khi bạn gửi cùng một văn bản đó cho người khác.

Nó sẽ không biết những gì bạn đang nói về, trừ khi nó hiểu được các chương trình mã hóa quá.

Mã hóa ký tự

Tất cả mã hóa ký tự đều chỉ định một số cho mỗi ký tự có thể được sử dụng. Bạn có thể tạo mã hóa ký tự ngay bây giờ.

Ví dụ, tôi có thể nói rằng chữ A trở thành số 13, a = 14, 1 = 33, # = 123, v.v.

Đây là nơi mà các tiêu chuẩn rộng của ngành công nghiệp đi vào. Nếu toàn bộ ngành công nghiệp máy tính sử dụng cùng một lược đồ mã hóa ký tự, mọi máy tính đều có thể hiển thị cùng một ký tự.

Unicode là gì?

ASCII (Mã tiêu chuẩn của Mỹ cho trao đổi thông tin) trở thành lược đồ mã hóa phổ biến đầu tiên. Tuy nhiên, nó chỉ giới hạn trong 128 định nghĩa ký tự. Điều này là tốt cho các ký tự tiếng Anh phổ biến nhất, số và dấu chấm câu, nhưng là một chút hạn chế cho phần còn lại của thế giới.

Đương nhiên, phần còn lại của thế giới muốn cùng một chương trình mã hóa cho nhân vật của họ. Tuy nhiên, trong một thời gian ngắn tùy thuộc vào vị trí của bạn, có thể có một ký tự khác được hiển thị cho cùng một mã ASCII.

Cuối cùng, các phần khác của thế giới đã bắt đầu tạo ra các chương trình mã hóa của riêng mình và mọi thứ bắt đầu có chút rắc rối. Không chỉ là các chương trình mã hóa có độ dài khác nhau, các chương trình cần thiết để tìm ra sơ đồ mã hóa nào mà chúng được cho là sử dụng.

Nó trở nên rõ ràng rằng một chương trình mã hóa ký tự mới là cần thiết, đó là khi các tiêu chuẩn Unicode được tạo ra.

Mục tiêu của Unicode là để thống nhất tất cả các lược đồ mã hóa khác nhau để sự nhầm lẫn giữa các máy tính có thể bị giới hạn càng nhiều càng tốt.

Những ngày này, tiêu chuẩn Unicode xác định các giá trị cho hơn 128.000 ký tự, và có thể được nhìn thấy tại Unicode Consortium. Nó có một số dạng mã hóa ký tự:

  • UTF-8: Chỉ sử dụng một byte (8 bit) để mã hóa các ký tự tiếng Anh. Nó có thể sử dụng một chuỗi các byte để mã hóa các ký tự khác. UTF-8 được sử dụng rộng rãi trong các hệ thống email và trên internet.
  • UTF-16: Sử dụng hai byte (16 bit) để mã hóa các ký tự thường được sử dụng nhất. Nếu cần, các ký tự bổ sung có thể được biểu diễn bằng một cặp số 16 bit.
  • UTF-32: Sử dụng bốn byte (32 bit) để mã hóa các ký tự. Rõ ràng là khi chuẩn Unicode tăng lên, một số 16 bit quá nhỏ để thể hiện tất cả các ký tự. UTF-32 có khả năng biểu diễn mọi ký tự Unicode dưới dạng một số.

Lưu ý: UTF có nghĩa là Đơn vị chuyển đổi Unicode.

Các điểm mã

Điểm mã là giá trị mà ký tự được đưa ra trong tiêu chuẩn Unicode. Các giá trị theo Unicode được viết dưới dạng số thập lục phân và có tiền tố là U + .

Ví dụ để mã hóa các ký tự tôi đã xem trước đó:

  • A là U + 0041
  • a là U + 0061
  • 1 là U + 0031
  • # là U + 0023

Các điểm mã này được chia thành 17 phần khác nhau được gọi là mặt phẳng, được xác định bằng các số từ 0 đến 16. Mỗi mặt phẳng chứa 65.536 điểm mã. Mặt phẳng đầu tiên, 0, giữ các ký tự được sử dụng phổ biến nhất, và được gọi là Máy chủ đa ngôn ngữ cơ bản (BMP).

Đơn vị mã

Lược đồ mã hóa được tạo thành từ các đơn vị mã, được sử dụng để cung cấp chỉ mục cho vị trí của một ký tự trên mặt phẳng.

Xem xét UTF-16 làm ví dụ. Mỗi số 16 bit là một đơn vị mã. Các đơn vị mã có thể được chuyển đổi thành các điểm mã. Ví dụ, biểu tượng ghi chú phẳng ♭ có một điểm mã của U + 1D160 và sống trên mặt phẳng thứ hai của chuẩn Unicode (Máy bay bổ sung Ideographic). Nó sẽ được mã hóa bằng cách kết hợp các đơn vị mã 16 bit U + D834 và U + DD60.

Đối với BMP, giá trị của các điểm mã và các đơn vị mã là giống hệt nhau.

Điều này cho phép một phím tắt cho UTF-16 tiết kiệm rất nhiều không gian lưu trữ. Nó chỉ cần sử dụng một số 16 bit để biểu diễn các ký tự đó.

Java sử dụng Unicode như thế nào?

Java được tạo ra vào khoảng thời gian khi tiêu chuẩn Unicode có các giá trị được định nghĩa cho một tập hợp các ký tự nhỏ hơn nhiều. Lúc đó, nó đã cảm thấy rằng 16 bit sẽ là quá đủ để mã hóa tất cả các nhân vật cần thiết. Với ý nghĩ đó, Java được thiết kế để sử dụng UTF-16. Trong thực tế, kiểu dữ liệu char ban đầu được sử dụng để đại diện cho một điểm mã Unicode 16-bit.

Kể từ Java SE v5.0, char đại diện cho một đơn vị mã. Nó tạo ra sự khác biệt nhỏ khi biểu diễn các ký tự nằm trong Mặt phẳng đa ngôn ngữ cơ bản vì giá trị của đơn vị mã giống với điểm mã. Tuy nhiên, nó có nghĩa là đối với các nhân vật trên các mặt phẳng khác, cần có hai ký tự.

Điều quan trọng cần nhớ là một kiểu dữ liệu char đơn không thể đại diện cho tất cả các ký tự Unicode.

Từ khóa » Bộ Mã Unicode Dùng