Cùng với sự bùng nổ các ứng dụng trí tuệ nhân tạo, AI chip đang thu hút sự quan tâm của giới công nghiệp cũng như giới hàn lâm.
Nhóm giảng viên và sinh viên thuộc nhóm nghiên cứu EDABK - Phòng thí nghiệm Thiết kế vi mạch và hệ thống nhúng BKIC, Trường Điện - Điện tử thiết kế, Đại học Bách khoa Hà Nội đã nghiên cứu, thiết kế và chế tạo thử nghiệm thành công chip trí tuệ nhân tạo (AI) thế hệ mới lấy cảm hứng từ cách thức hoạt động của bộ não con người.
Cùng với sự bùng nổ các ứng dụng trí tuệ nhân tạo, AI chip đang thu hút sự quan tâm của giới công nghiệp cũng như giới hàn lâm. Nvidia với sản phẩm chính các chip GPU sử dụng trong AI đã có sự tăng trưởng ngoạn mục về giá trị.
Lấy cảm hứng từ sự hoạt động hiệu quả tiêu tốn ít năng lượng của não người, nhóm nghiên cứu đã đề xuất sử dụng kiến trúc Computing-in-Memory (tính toán trong bộ nhớ). Kiến trúc tính toán này phỏng tạo lại mạng neuron dạng xung tương tự như hoạt động của mạng thần kinh trong não bộ. Nhờ kiến trúc mới, năng lượng tiêu thụ của chip đã giảm đáng kể.
Thiết kế chip EDABK-brain của BKIC đã giành giải Nhất cuộc thi thiết kế chip Silicon Design Challenge lần thứ 3 do hãng eFabless tổ chức và Google đồng tài trợ.
PGS Nguyễn Đức Minh - trưởng nhóm nghiên cứu cho biết, ý tưởng cốt lõi là mô phỏng cấu trúc hoạt động của bộ não để thiết kế thế hệ chip AI mới, nhằm giảm thiểu năng lượng tiêu thụ.
Các hệ thống AI hiện đại như GPT của OpenAI cần tới hàng chục nghìn GPU để huấn luyện, tiêu tốn lượng điện năng khổng lồ. Trong khi đó, bộ não con người chỉ tiêu thụ khoảng 20W mà vẫn xử lý thông tin phức tạp hiệu quả. “Chúng tôi muốn học theo cơ chế này để tối ưu hóa hiệu năng chip AI”, PGS Minh nói.
Kiến trúc chip truyền thống dựa trên mô hình Von Neumann, với sự phân tách giữa bộ nhớ và bộ xử lý. Tuy nhiên, nhóm nghiên cứu của Đại học Bách khoa đã áp dụng kiến trúc “in - memory computing” (tính toán ngay tại bộ nhớ), giúp phần tử tính toán và bộ nhớ nằm gần nhau. Kiến trúc này mô phỏng mạng nơ-ron dạng xung, tương tự hoạt động của hệ thần kinh sinh học, giúp tăng tốc xử lý và giảm thiểu tiêu hao năng lượng.
Chip EDABK - Brain do nhóm phát triển có quy mô nhỏ hơn so với các sản phẩm thương mại của IBM hay Intel. Chip được chế tạo trên tiến trình 130 nm với 256 nơ-ron và 65.000 khớp nối thần kinh, trong khi các chip tiên tiến nhất hiện nay đạt tới hàng triệu nơ-ron.
Bên cạnh việc ứng dụng kiến trúc mới, nhóm còn tận dụng trí tuệ nhân tạo để hỗ trợ thiết kế chip. TS Hoàng Phương Chi, thành viên nhóm nghiên cứu, cho biết, nhóm sử dụng các công cụ AI, bao gồm cả ChatGPT, để tối ưu hóa quá trình thiết kế, giúp rút ngắn thời gian phát triển từ ý tưởng đến sản phẩm hoàn thiện chỉ trong 12 ngày.
Tuy nhiên, TS Chi nhấn mạnh để đạt được thành quả này, nhóm đã có hơn ba năm nghiên cứu nền tảng, bắt đầu từ năm 2020 và công bố công trình đầu tiên tại hội thảo khoa học châu Âu vào năm 2021.
Một số thông số đặc trưng của chip EDABK-Brain gồm kiến trúc SRAM-based CIM, số neuron cứng là 32, số kết nối thần kinh cứng là 8192, số neuron mềm là 1280, số kết nối thần kinh mềm 320.000, độ chính xác trên tập MNIST 96%, Tốc độ IP 30.000 khung hình/1 giây, ốc độ toàn chip 90 khung hình/1 giây…
Hiện nay, các tập đoàn lớn như IBM và Intel cũng đang theo đuổi hướng phát triển chip AI lấy cảm hứng từ bộ não. Tuy nhiên, nhóm của Đại học Bách khoa Hà Nội tập trung vào xây dựng hệ thống mở hoàn toàn (open - source), bao gồm cả công cụ thiết kế, tổng hợp và huấn luyện mô hình.
Đây là yếu tố giúp nhóm giành giải thưởng tại Cuộc thi thiết kế chip quốc tế trong năm vừa qua. Trong thời gian tới, nhóm tiếp tục nghiên cứu, phát triển các phiên bản chip AI tiên tiến hơn, góp phần vào xu hướng toàn cầu trong xây dựng các hệ thống tính toán tiết kiệm năng lượng và có khả năng xử lý các tác vụ AI phức tạp tại biên (Edge AI) - tức là xử lý thông tin ngay tại thiết bị mà không cần máy chủ trung tâm, giúp phản hồi nhanh hơn nhưng tiêu thụ năng lượng thấp.
Hiện tại, nhóm tiếp tục nghiên cứu, phát triển các phiên bản chip AI tiên tiến hơn, góp phần vào xu hướng toàn cầu trong xây dựng các hệ thống tính toán tiết kiệm năng lượng và có khả năng xử lý các tác vụ AI phức tạp tại biên (Edge AI) - tức là xử lý thông tin ngay tại thiết bị mà không cần máy chủ trung tâm, giúp phản hồi nhanh hơn nhưng tiêu thụ năng lượng thấp.