Phần Cứng Cho Trí Tuệ Nhân Tạo – Cơ Hội Và Thách Thức Cho Ngành ...

Kể từ khi xuất hiện lần đầu vào thập niên 50, trí tuệ nhân tạo (artificial intelligence hay AI) ngày càng phát triển và trở thành một chủ đề rất hot với nhiều nghiên cứu và ứng dụng trong cuộc sống.

Phần cứng máy tính hiện tại cản trở AI như thế nào?

Thử dùng Google Scholar để tìm kiếm các tài liệu nghiên cứu khoa học với từ khoá “Artificial Intelligence” và “Artificial Intelligence hardware accelerator” cho chúng ta một cái nhìn tổng quát sự phát triển của trí tuệ nhân tạo trong suốt 5 thập niên qua.

Theo nghiên cứu của McKinsey, sự phát triển của AI phụ thuộc vào nhiều yếu tố công nghệ khác nhau, như ứng dụng (solution and use cases), loại dữ liệu (data types), kiến trúc (architecture), thuật toán (algorithm) hay phần cứng (hardware accelerator) [1]. Thế nhưng, sự phát triển vượt bậc hiện nay của AI lại chủ yếu đến từ thuật toán, kiến trúc mới, và lượng dữ liệu rộng lớn [2].

Một vấn đề được đặt ra là, các phép tính toán phức tạp từ những thuật toán mới, hay lượng dữ liệu khổng lồ ảnh hưởng như thế nào đến phần cứng máy tính hiện tại. Nói cách khác, liệu nền tảng phần cứng bây giờ có đáp ứng được yêu cầu của AI hay không, hay nó đã vô tình cản trở sức mạnh thật sự của AI?

McKinsey đề ra 9 yếu tố công nghệ liên quan đến trí tuệ nhân tạo. Bài viết này sẽ chủ yếu nói về phần cứng hardware accelerator [1].

Trước khi bắt đầu xây dựng một nền tảng phần cứng mới, hãy cũng nhìn lại kiến trúc máy tính mà chúng ta đang sử dụng hằng ngày là gì. Máy tính hiện tại sử dụng mô hình von Neumann, được phát triển với giáo sư John von Neumann tại đại học Princeton từ năm 1945 [3]. Theo đó, nhân xử lý (CPU) và bộ nhớ (RAM) được chia làm hai phần riêng biệt và giao tiếp với nhau thông qua kết nối gọi là bus. Với mỗi phép tính toán, dữ liệu sẽ được luân chuyển giữa nhân xử lí và bộ nhớ.

Figure 1
So sánh hai mô hình máy tính: (a) kiến trúc von-Neumann vốn tập trung vào tính toán (computation-centric) và (b) kiến trúc mô phỏng mạng thần kinh tập trung vào dữ liệu (data-centric) [5].

AI, mà đặc biệt là deep learning, đòi hỏi một lượng dữ liệu rất lớn trong quá trình “rèn luyện” mô hình (model training). Trong quá trình này, rất nhiều các phép tính toán diễn ra và kiến trúc von Neumann đã vô tình giới hạn khả năng tính toán bằng “bức tường bộ nhớ – memory wall”. Ngoài ra, việc phải “đi lại” giữa nhân xử lí và bộ nhớ của dữ liệu cũng tiêu tốn nhiều năng lượng. [4] Hãy thử tưởng tượng việc xử lí AI ở các trung tâm dữ liệu lớn (data centre) với rất nhiều các CPUs/ GPUs, tiêu tốn nhiều năng lượng hơn cũng đồng nghĩa với việc chi phí hoạt động cao hơn. Chính vì thế, việc tạo ra một thế hệ phần cứng mới dành riêng cho trí tuệ nhân tạo là cần thiết và quan trọng, nhằm xoá bỏ giới hạn tốc độ tính toán cũng như tiêu thụ ít năng lượng hơn.

Vi xử lí và bộ nhớ cho AI phải như thế nào?

Vi xử lí đồ hoạ GPU với khả năng tính toán song song đã tạo đà phát triển cho việc tính toán dữ liệu trong AI [5], giúp giảm bớt gánh nặng cho vi xử lí trung tâm CPU. Thế nhưng, thế là vẫn chưa đủ cho một thế hệ phần cứng dành riêng cho AI. Các nhà khoa học đã cho ra đời kiến trúc máy tính mới, mô phỏng lại mạng thần kinh của con người (neuromorphic hay neuro-inspired computing) [5, 6], nhằm giải quyết được yêu cầu của AI. Trong đó, neurons là các đơn vị tính toán (vi xử lí) còn các synapses là các bộ nhớ.

Bộ nhớ băng thông rộng (High bandwidth memory)

Như đã đề cầp, AI, đặc biệt là thuật toán mạng thần kinh (neural network) đòi hỏi việc di chuyển thật nhanh một lượng dữ liệu lớn giữa các nhân tính toán. Khi mà SRAM/DRAM ngày càng không thể đáp ứng được nhu cầu này thì công nghệ băng thông rộng (High bandwidth memory hay HBM) xuất hiện như một giải pháp hoàn hảo.

Đồ hoạ miêu tả cách mà GPU và bộ HBM được sắp xếp trên cùng một đế chip. Nguồn: Wikipedia

Thay vì sử dụng kết nối truyền thống, HBM dùng kết nối silicon (through-silicon via hay TSV). Theo đó, bộ nhớ DRAM sẽ được xếp chồng lên nhau (vertically stacked) và kết nối với nhau thông qua TSV. Và cùng với vi xử lí GPU, tất cả sẽ được sắp xếp lên một đế silicon chung (Silicon interposer), từ đó giúp rút ngắn quãng đường mà dữ liệu phải di chuyển [7]. Công nghệ xếp chồng bộ nhớ (3D-stacked memory) xuất hiện lần đầu trong các chip nhớ NAND flash, sản xuất bởi Toshiba [8], nhằm gia tăng dung lượng bộ nhớ. AMD đã kế thừa công nghệ trên và phát triển nên HBM, vừa giúp tăng tốc độ lưu dữ liệu (high bandwidth) do thu ngắn quãng đường di chuyển, vừa tận dụng mật độ lưu trữ lớn (high memory density) từ công nghệ xếp chồng. Có thể nói, HBM đã đáp ứng được yêu cầu của AI/neural network. Theo AMD, công nghệ HBM cho tốc độ tính toán gần giống như công nghệ bộ nhớ tích hợp trên chip (on-chip memory, sẽ được đề cập ở phần sau). Tuy nhiên, HBM có chi phí chế tạo đắt hơn bộ nhớ truyền thống, cũng như tỉ lệ hỏng hóc cao hơn, khi một thành phần hư có thể khiến cho cả mô đun không hoạt động.

Đồ hoạ so sánh giữa bộ nhớ truyền thống GDDR5 và HBM. Thông tin phải đi qua bo mạch giữa chip xử lí và bộ nhớ (bên trái) và đi qua cầu silicon TSV (bên phải). Nguồn: AMD.

Bộ nhớ tích hợp trên chip (on-chip memory)

SRAM là một bộ nhớ tích hợp trên vi xử lí, với những ưu điểm như nhanh hơn DRAM, tiết kiệm năng lương, thường đóng vai trò là bộ nhớ đệm (cache) cho vi xử lí. Thế nhưng, SRAM lại có những khuyết điểm như đắt, mật độ lưu trữ thấp, khiến nó không thể đáp ứng được yêu cầu của việc xử lí dữ liệu cho AI [5].

Các nhà khoa học đã tìm ra được một số giải pháp công nghệ mới emerging non-volatile memory (eNVM) nhằm thay thế bộ nhớ hiện tại. eNVM không chỉ có khả năng lưu trữ lâu dài như NAND flash hay HDD, mà còn có tốc độ đọc/ghi gần tương đương như SRAM/DRAM. Hãy cùng điểm qua một số eNVM và cách thức hoạt động của chúng [10]:

  • Bộ nhớ từ trở (Magnetoresistive RAM hay MRAM) xuất hiện lần đầu vào thập niên 80, lưu trữ dữ liệu dưới dạng từ hướng (spin) của các electrons. Spin up hay spin down trở thành các trạng thái 0 hay 1 của dữ liệu. Ngày nay, phiên bản bộ nhớ Spin-transfer torque MRAM hay STT-MRAM là được biết đến rộng rãi hơn cả.
  • Bộ nhớ làm từ vật liệu có thể thay đổi trạng thái (Phase-change memory hay PCM/PCRAM) lần đầu được khám phá và nghiên cứu vào thập niên 60. PCM sử dụng chalcogenide glass (gồm các nguyên tố lưu huỳnh, selenium, tellurium nhưng không bao gồm oxy), là vật liệu có khả năng thay đổi trạng thái giữa vô định hình (amorphous) và mạng tinh thể (crystalline) khi nhiệt độ thay đổi. Dòng điện sẽ tạo ra các mức nhiệt khác nhau, từ đó thay đổi trạng thái của vật liệu chalcogenide, hay nói cách khác là trạng thái 0 hay 1 của dữ liệu. PCM có nhiều ưu điểm so với MRAM, như thu hút được nhiều đầu tư và nghiên cứu, hay có sự khác biệt lớn giữa trạng thái 0 và 1.
  • Cuối cùng, bộ nhớ điện trở (Resistive RAM hay ReRAM) sử dụng điện trở của lớp oxide (ví dụ như HfOx, TaOx, TiOx, hay AlOx) để lưu trữ dữ liệu. Mức điện trở của lớp oxide thay đổi bởi điện trường, nhờ hình thành các lỗ trống oxy (vacancies) đóng vai trò dẫn điện. Nói cách khác, mức điện trở chính là trạng thái 0 hay 1.

Năm 2015, Intel và Micron đã hợp tác để ra đời công nghệ 3D Xpoint sử dụng bộ nhớ PCM. Hiện tại, Intel sử dụng công nghệ này dưới cái tên Optane memory, một sản phẩm rất quen thuộc với các bạn thích vọc vạch máy tính [10].

Image result for optane memory
Sản phẩm Optane memory. Nguồn: Intel

SRAM có mật độ lưu trữ thấp do một cell nhớ (một đơn vị nhớ) cần tới 6 đến 8 bóng bán dẫn, trong khi đó các cell nhớ eNVM chiếm ít diện tích ít hơn mà lại chứa nhiều hơn. Nhờ thế, eNVM có mật độ chứa lớn, thích hợp để làm bộ nhớ tích hợp (on-chip memory) hay các synapses trong kiến thúc máy tính neuro-inspired [5]. eNVM thoã mãn được tiêu chí quan trọng của phần cứng cho AI, đó là lưu trữ dữ liệu lớn và xử lí tốc độ cao. Việc các nhà khoa học đã xây dựng thành công một hệ thống 3D bao gồm cả vi xử lí và bộ nhớ MRAM/RRAM cho phép dữ liệu và thuật toán được lưu trữ ngay trong chip, phần nào chứng minh được tính khả thi của eNVM cũng như neuro-inspired computing [9].

Cuộc đua thị phần của sản xuất phần cứng cho trí tuệ nhân tạo

Đến năm 2025, thị trường phần cứng cho AI sẽ phát triển nhanh gấp 5 lần tốc độ phát triển của các mảng thiết bị bán dẫn khác, theo McKinsey, và có giá trị vào khoảng 65 tỉ đô Mỹ. Trong đó, phần lớn phần cứng cho AI sẽ được dùng trong các trung tâm dữ liệu (data center) [1]. Trong bối cảnh thị trường máy tính cá nhân PC hay di động mobile đã gần bão hoà, phần cứng cho AI mở ra cánh cổng mới cho các công ty bán dẫn gia tăng doanh thu. Cuộc chạy đua giành thị phần phần cứng AI đang trở nên nóng và khốc liệt hơn. Theo McKinsey, các công ty bán dẫn cần phải hoặc tập trung vào phần cứng cho thị trường chuyên biệt hay các ứng dụng cụ thể, như nhận diện giọng nói hay hình ảnh, hoặc một phần cứng hỗ trợ đa ngành, đa ứng dụng.

Trí tuệ nhân tạo (AI), học máy (machine learning), hay mạng thần kinh (neural network) là những cụm từ ngày càng phổ biến trong thế kỉ 21. Thế nhưng, phần cứng hiện nay lại không được tối ưu cho lượng dữ liệu lớn và những phép tính phức tạp, vô tình giới hạn năng lực lớn mạnh của AI. Chúng ta có thể hi vọng rằng, với giải pháp kiến trúc máy tính mới neuro-inspired computing cùng với công nghệ bộ nhớ mới eNVM, trí tuệ nhân tao sẽ có những bước đột phá và được ứng dụng nhiều hơn vào các lĩnh vực trong cuộc sống, như biến đổi khí hậu chẳng hạn [11].

Tham khảo:

  1. G. Batra et. al., “Artificial-intelligence hardware: New opportunities for semiconductor companies,” McKinsey&Company, December 2018. [Online]. Available: McKinsey
  2. “Does AI have a hardware problem?,” Nat Electron, vol. 1, pp. 205, 2018. https://doi.org/10.1038/s41928-018-0068-2
  3. M. D. Godfrey and D. F. Hendry, “The Computer as von Neumann Planned It,” IEEE Annals of the History of Computing, vol. 15, no. 1, 1993.
  4. B. Bailey, “Power is limiting machine learning deployments,” Semiconductor Engineering, July 2019. [Online]. Available: Semiconductor Engineering
  5. S. Yu, “Neuro-inspired computing with emerging non-volatile memories,” Proc. IEEE, vol. 106, no. 2, pp. 260, February 2018. https://doi.org/10.1109/JPROC.2018.2790840
  6. C. Mead, “Neuromorphic electronic systems,” Proc. IEEE, vol. 78, no. 10, pp. 1629, October 1990.
  7. “Infographic: Introducing HBM,” AMD. [Online]. Available: AMD
  8. “Toshiba commercializes industry’s highest capacity embedded NAND flash memory for mobile consumer products: eMMC™ Embedded Memories Combine Up To 16GB NAND and Controller in a Single Package,” Toshiba, April 2007. [Online]. Available: Toshiba
  9. H.-S. P. Wong and S. Salahuddin, “Memory leads the way to better computing,” Nature Nanotech, vol. 10, pp. 191–194, 2015. https://doi.org/10.1038/nnano.2015.29
  10. B. Tallis, “Intel Launches Optane Memory M.2 Cache SSDs For Consumer Market,” AnandTech, March 2017. [Online]. Available: AnandTech
  11. J. Snow, “How artificial intelligence can tackle climate change,” National Geographic, July 2019. [Online]. Available: National Geographic

Share this:

  • Print
  • Facebook
  • LinkedIn
  • Pocket
  • Pinterest
  • More
  • Email
  • WhatsApp
Like Loading...

Related

Từ khóa » Phần Cứng Ai