Ảnh hưởng ngày càng tăng của RISC-V

Ảnh hưởng ngày càng tăng của RISC-V

Liệu thế giới có cần một kiến ​​trúc CPU khác khi nó không còn phản ánh được khối lượng công việc thông thường nữa không?

Ngành công nghiệp đang ngày càng bàn tán về những lợi ích mà kiến ​​trúc RISC-V mang lại, nhưng liệu đây có phải là điểm khởi đầu đúng đắn? Mặc dù có thể chưa hoàn hảo, nhưng nó có thể cung cấp sự linh hoạt cần thiết để từng bước tiến lên.

Kiến trúc máy tính và phần mềm đã tiếp bước bộ vi xử lý được phát triển cách đây 80 năm. Chúng hướng đến việc giải quyết các bài toán số học tuần tự, vô hướng bằng một công nghệ nền tảng có thể giải quyết bất kỳ bài toán hữu hạn nào, miễn là nó có đủ bộ nhớ.

Ngành công nghiệp chip đã cho thấy sự ngần ngại trong việc từ bỏ cách tiếp cận đó, đặc biệt là trong các ngành công nghiệp vẫn sử dụng phần mềm được phát triển từ 50 năm trước. Các mô hình phần mềm và khả năng tương thích ngược có ảnh hưởng rất lớn. Phải mất hàng thập kỷ, lập trình mới chuyển đổi từ kiến ​​trúc bộ xử lý đơn sang kiến ​​trúc đa bộ xử lý một cách có ý nghĩa, và phải đến khi NVIDIA phát triển CUDA, các ứng dụng nhắm đến bộ xử lý song song hàng loạt mới bắt đầu được phát triển bên ngoài các ứng dụng chuyên biệt cao.

Vậy tại sao ngành công nghiệp lại cần một kiến ​​trúc CPU khác khi khối lượng công việc điển hình của nhiều ứng dụng là vấn đề về luồng dữ liệu, với mức độ kiểm soát thấp? Câu trả lời nằm ở nhiều cách kiến ​​trúc RISC-V có thể được phát triển, và một số trong số đó có thể cho phép chuyển đổi chậm thay vì cố gắng vượt qua một khoảng cách lớn.

Vài tuần trước, cộng đồng RISC-V đã tổ chức hội nghị thượng đỉnh thường niên tại châu Âu, giới thiệu cách thức RISC-V được sử dụng ngày càng rộng rãi và tác động của nó đang ngày càng gia tăng, đặc biệt là trong các lĩnh vực ứng dụng không bị nhiều phần mềm cũ cản trở. "RISC-V không còn chỉ là bộ vi điều khiển nhúng nhỏ bé mà bạn thậm chí còn không biết đến, mà đã nằm trong sản phẩm của bạn", Andrea Gallo, Giám đốc điều hành của RISC-V International, cho biết. "RISC-V đã bước vào một giai đoạn khác."

Điều này được nhiều người ủng hộ. “So với những năm trước ở châu Âu, số lượng doanh nghiệp tham dự đã đông hơn nhiều”, Larry Lapides, giám đốc điều hành phát triển kinh doanh tại Synopsys , cho biết . “Nội dung đến nhiều hơn từ các ngành công nghiệp, và điều đó đã thay đổi không khí của hội nghị. Điều chúng tôi đang thấy là RISC-V đang bắt đầu xâm nhập vào những lĩnh vực mà chúng tôi thậm chí không ngờ tới cách đây năm năm.”

Gallo đã đưa ra một số ví dụ về những tiến bộ đáng kể. "Infineon cho biết họ đang áp dụng RISC-V cho ô tô", ông nói. "Liên minh Châu Âu đang tài trợ cho các dự án HPC và ô tô. Meta đang sử dụng nó cho AI trong các card tăng tốc của họ. Và NVIDIA ước tính rằng năm ngoái, vào năm 2024, họ đã xuất xưởng 1 tỷ lõi RISC-V trong GPU của mình."

Những người khác nhấn mạnh những tiến bộ đáng kể của RISC-V trong các bộ xử lý tiên tiến. "Không chỉ ở phân khúc thấp, mà cả các bộ xử lý đóng vai trò đồng xử lý hoặc tăng tốc cho GPU trong một số phân khúc nhất định", Mohit Wani, giám đốc sản phẩm chính tại Synopsys, cho biết. "NVIDIA đã có một bài thuyết trình, trong đó họ cho biết họ có gần 30 loại chức năng khác nhau trong danh mục sản phẩm của mình, trong đó các lõi dựa trên RISC-V đang đảm nhiệm hơn 30 chức năng đó."

Một số rào cản về kinh doanh và kỹ thuật vẫn phải được vượt qua. Roland Jancke, người đứng đầu phương pháp thiết kế tại Bộ phận Kỹ thuật Hệ thống Thích ứng của Fraunhofer IIS , cho biết: "Ngành ô tô đang ngày càng chú ý đến RISC-V". "Họ đã do dự vì RISC-V là một kiến ​​trúc mở. Trong ngành công nghiệp ô tô, bạn luôn cần có ai đó để đổ lỗi nếu có sự cố xảy ra. Điều này rất khó nếu bạn không có một nhà cung cấp duy nhất mà là một cộng đồng. Ngày nay, họ ngày càng chú ý đến RISC-V do tiềm năng giảm chi phí, bởi vì trong ngành ô tô, bạn tìm kiếm từng xu để giảm giá. Tuy nhiên, bạn cần phải có một hệ sinh thái. Chỉ có các công cụ có khả năng phát triển bộ xử lý của bạn là chưa đủ, mà còn phải có phần mềm đi kèm. RISC-V đang ngày càng chiếm ưu thế, nhưng vẫn còn một chặng đường dài phía trước cho đến khi chúng ta có bộ xử lý RISC-V trở thành con ngựa chính trong lĩnh vực ô tô."

Tuy nhiên, không phải ai cũng thấy điều này đáng chú ý. "RISC-V không phải là giải pháp cho AI — không phải cho đào tạo, cũng không phải cho suy luận", Steve Roddy, giám đốc tiếp thị tại Quadric , cho biết . "RISC-V chỉ đơn giản là một CPU điều khiển khác cùng loại với các bộ xử lý Arm, x86, MIPS, Xtensa và ARC. Hai bộ xử lý sau cũng cung cấp cho nhà thiết kế khả năng tùy chỉnh tập lệnh tương tự, thậm chí vượt trội hơn RISC-V. Do đó, RISC-V không mang lại bất kỳ tính năng kỹ thuật nào vượt trội hơn hẳn so với các thế hệ trước."

Để kết hợp cả hai quan điểm cực đoan này đòi hỏi sự hiểu biết lâu dài về cách thức hoạt động của ngành. "RISC-V có khả năng thúc đẩy sự tiến hóa của AI", Venki Narayanan, giám đốc cấp cao phụ trách kiến ​​trúc hệ thống và giải pháp nhúng tại bộ phận FPGA của Microchip Technology, cho biết. "Nó cần điều đó. Nó đang phát triển. Các mô hình đang phát triển, cả ở cấp độ học tập và suy luận. Nó cần nhiều kiểu dữ liệu, nhiều thành phần bộ nhớ, bộ nhớ cục bộ và khả năng thực hiện nhiều tính toán tùy chỉnh hơn theo cách nhanh hơn nhiều. Nếu bạn nhìn vào điều đó, có rất nhiều cách để thực hiện. RISC-V đang hỗ trợ điều đó với các kiến ​​trúc chuyên biệt cho từng miền."

Cơ hội duy nhất

Trong ngành công nghiệp chip, hiếm khi có một ứng dụng nào mới xuất hiện mà không có phần mềm kế thừa. Tuy nhiên, đó chính là điều đã xảy ra với AI. Hơn nữa, với tốc độ phát triển chóng mặt của công nghệ, khó có phần mềm nào có thể tồn tại trước khi bị gián đoạn. Điều này tạo ra một môi trường hoàn hảo cho sự phát triển và thích nghi liên tục.

Lapides của Synopsys cho biết: "Không cần phần mềm kế thừa hỗ trợ, bạn thực sự có thể tùy chỉnh bộ xử lý theo khối lượng công việc và loại bỏ những thứ không cần thiết. Vẫn còn rất nhiều tối ưu hóa có thể được thực hiện ở cấp độ kiến ​​trúc, thậm chí ở cấp độ vi kiến ​​trúc, như thiết kế đường ống, bộ nhớ đệm và bộ nhớ. Và đó là tất cả những gì bạn cần làm trước khi bắt tay vào bất cứ việc gì khác, trước khi bắt tay vào triển khai."

Sự tự do đi kèm với RISC-V mang đến sự tự do trong kiến ​​trúc. “Các card tăng tốc AI có thể có số lượng lớn lõi RISC-V, thậm chí là nhiều lõi khác nhau trong cùng một cụm,” Gallo của RISC-V International cho biết. “Bạn có thể có hàng trăm khối nhỏ, mỗi khối là một lõi RISC-V khác nhau, một số chuyên dụng cho việc di chuyển dữ liệu vào và ra, và một số chuyên dụng cho việc suy luận và xử lý. Sau đó, bạn có khái niệm thêm các lệnh tùy chỉnh cho phép bạn có các đơn vị tensor rất hiệu quả. Đây chính là cách RISC-V đang ảnh hưởng đến kiến ​​trúc của chip.”

Mặc dù bản quyền RISC-V mang lại lợi thế về chi phí, nhưng đó không phải là lý do duy nhất. "Nó còn hơn thế nữa", Wani của Synopsys nói. "Nếu bạn nhìn vào cách các bộ tăng tốc kết nối với bộ xử lý, đó là thông qua một giao diện nhanh, và thường theo cách ánh xạ bộ nhớ. Từ góc độ nhà phát triển, nếu bạn muốn công việc được thực hiện trên bộ tăng tốc, bạn gửi dữ liệu và thông tin tác vụ đến bộ tăng tốc thông qua giao diện, và sau đó bạn sẽ đợi bộ tăng tốc gửi kết quả trở lại."

Nhưng việc giao tiếp này rất tốn kém, và điều đó có nghĩa là các lõi sẽ bị bỏ không. "Bạn đang lãng phí 30% thời gian để gửi dữ liệu và nhận kết quả", Wani nói. "Bạn có thể tránh được tất cả thời gian đó nếu bạn có thể thực hiện các thao tác cụ thể đó một cách tự nhiên, gửi dữ liệu qua đường ống vector của riêng bạn, sau đó kết nối trực tiếp với bộ tăng tốc. Sự linh hoạt này chỉ tồn tại trong thế giới RISC-V."

Roddy của Quadric không bị thuyết phục. "Tất cả các CPU điều khiển đều gặp phải những hạn chế nghiêm trọng giống nhau khi áp dụng cho các ứng dụng AI, đặc biệt là các ứng dụng suy luận", ông nói. "CPU được thiết kế để truy tìm các con trỏ trong mã ngẫu nhiên. Chúng không phải là công cụ ma trận hay tenxơ. Trong trường hợp tốt nhất, các CPU này cung cấp thông lượng tính toán vectơ * vectơ. Chúng bị ràng buộc bởi các nút thắt băng thông tải/lưu trữ thông thường. Do đó, mọi phương pháp có ý định sử dụng RISC-V cho AI đều phải được tích hợp trong một công cụ ma trận riêng biệt, điều này dẫn đến các vấn đề phân vùng đồ thị vốn là gót chân Achilles của các phương pháp dựa trên CPU. Sự đổi mới phù hợp để giải quyết AI là tạo ra các kiến ​​trúc vốn đã được tối ưu hóa (ma trận * ma trận) hoặc (tensor * tenxơ) và phá vỡ sự phụ thuộc lấy CPU làm trung tâm vào bộ nhớ đệm và các đường ống suy đoán không theo thứ tự."

RISC-V cho phép các phần này được gói gọn trong một bộ xử lý điều khiển thông thường. "Một số thành viên của chúng tôi đã có các lệnh tensor tùy chỉnh", Gallo nói. "Đó là tính linh hoạt của RISC-V. Bạn có thể phát triển các lệnh tùy chỉnh cho khối lượng công việc cụ thể của mình, và sau đó bạn chịu toàn bộ chi phí sở hữu cho ứng dụng cụ thể tùy chỉnh của mình. Việc chuẩn hóa và mở rộng các thông số kỹ thuật cũng rất có giá trị để chúng ta chia sẻ chi phí bảo trì trình biên dịch, chuỗi công cụ và thư viện. Chúng tôi có vector, chúng tôi đang làm việc trên ma trận, và sẽ có các cách tiếp cận khác nhau đối với ma trận tùy thuộc vào các trường hợp sử dụng ứng dụng. Nếu đó là thẻ tăng tốc, nếu đó là ứng dụng AI IoT hoặc AI biên, sẽ có những cách khác nhau để triển khai tăng tốc ma trận."

Do không có ứng cử viên nào khác trong tầm ngắm, bạn phải tạm hài lòng với những gì hiện có. “Dòng dữ liệu rất quan trọng trong AI và nhiều yếu tố tính toán khác”, Narayanan của Microchip cho biết. “Các yêu cầu tính toán đã tăng lên, và điều đó cần phải được thực hiện theo cách tiết kiệm năng lượng hơn. Vấn đề không chỉ nằm ở kiến ​​trúc vi mô của lệnh, truy xuất, thực thi và ghi lại. Mà còn là cách bạn tổ chức kiến ​​trúc vi mô và dòng dữ liệu. Làm thế nào để đưa dữ liệu vào và ra — đặc biệt là một lượng lớn dữ liệu đi từ lớp này sang lớp khác. Bạn không thể cứ tiếp tục ghi lại vào DDR.”

Với sự phát triển nhanh chóng của AI, cần phải có rất nhiều tính linh hoạt. "Các loại mô hình cần được triển khai một cách hiệu quả đang ngày càng tăng lên", Nilam Ruparelia, trưởng bộ phận AI và truyền thông tại Microchip, cho biết. "Máy biến áp là thứ ChatGPT cần, và đây chính là điều đã làm cho AI trở nên phổ biến, nhưng có rất nhiều mô hình ít phức tạp hơn máy biến áp. Những mô hình này cũng cần hiệu suất cao hơn. Ví dụ, CNN, RNN, LSTM cổ điển cần kiến ​​trúc khối toán học, kiến ​​trúc khối DSP, để phù hợp hơn với các máy biến áp hoặc các mô hình đó nhằm cải thiện hiệu suất đáng kể."

AI không chỉ là một vấn đề, và tính linh hoạt vẫn rất quan trọng. "AI có nhiều lớp," Narayanan nói. "Bạn có phân đoạn, phát hiện đối tượng, phân loại, bộ chuyển đổi, và tất cả đều sử dụng các kiểu dữ liệu khác nhau. Các lớp này được triển khai như thế nào? Làm thế nào để thực hiện điều đó một cách hiệu quả, và làm thế nào để đưa dữ liệu vào và ra giữa các lớp? Đó là những câu hỏi bạn đặt ra, và đây chính là cách kiến ​​trúc giúp bạn xây dựng điều đó."

Nó không chỉ bao gồm các thao tác mà còn cả dữ liệu. "RISC-V có một lợi thế cố hữu, cho phép bạn tạo phần cứng tùy chỉnh mà không vi phạm đặc tả ISA", Ruparelia của Microchip cho biết. "Bạn có thể cải thiện khả năng xử lý cho một kiểu dữ liệu cụ thể, dù ở cấp độ lệnh hay trong kiến ​​trúc vi mô, nhờ đó bạn đang xây dựng một giải pháp điện toán tùy chỉnh cho loại khối lượng công việc đó. Tính linh hoạt này đóng một vai trò quan trọng trong việc linh hoạt ứng dụng với các kiểu dữ liệu mới khi chúng xuất hiện, và trong tương lai gần, chúng sẽ được sử dụng cho các loại ứng dụng khác nhau."

Nhưng những yêu cầu đầy đủ đối với một bộ xử lý để tối ưu hóa các tác vụ của tương lai vẫn còn là ẩn số. "Nếu chúng tôi đang xây dựng một bộ xử lý cho suy luận biên, nó có thể thực hiện phân loại, phát hiện, phân đoạn hoặc thậm chí một số loại chuyển đổi", Narayanan nói. "Đây là những lớp cố định, và chúng tôi biết các thành phần tính toán được thiết kế để tối ưu hóa hơn và hoạt động thông qua các quy trình công việc này. Chúng tôi xây dựng một máy tính được tối ưu hóa cho nhu cầu của ngày nay, nhưng điều đó không có nghĩa là nếu bạn có một lớp mới, hoặc các loại toán tử mới, hoặc thứ gì đó tương tự, chúng tôi không thể làm được. Chỉ là nó sẽ không hiệu quả bằng khi bạn thiết kế nó theo cách đó."

Hệ sinh thái

Hệ sinh thái này đã là một trở ngại lớn cho việc áp dụng trong một số lĩnh vực ứng dụng, nhưng những tiến triển ổn định đang được thực hiện. "Chúng tôi đã nâng cấp tư cách thành viên của mình trong dự án Yocto lên cấp bạch kim", Gallo nói. "Đây là một thông điệp rất mạnh mẽ gửi đến hệ sinh thái. Yocto là bản phân phối Linux nhúng phổ biến nhất. Đây là lần đầu tiên sau nhiều năm, dự án Yocto bổ sung một ISA mới, một kiến ​​trúc mới, và việc trở thành thành viên bạch kim đồng nghĩa với việc RISC-V sẽ ngang hàng với các kiến ​​trúc khác. Yocto không chỉ được sử dụng cho Linux nhúng, AI IoT biên, mà còn được sử dụng cho TV đầu thu kỹ thuật số tiêu dùng và ô tô trong lĩnh vực thông tin giải trí."

Thiết bị di động đang dần bắt kịp. "Google đã biến RISC-V thành một công nghệ hàng đầu trong lĩnh vực phát triển Android", Wani nói. "Khi bộ phần mềm ngày càng hoàn thiện, chúng ta cũng sẽ thấy các lõi ứng dụng cơ bản trong các phân khúc phổ biến như thiết bị di động, máy tính xách tay, v.v."

Khi đủ số lượng người dẫn đầu tham gia, cả nhóm sẽ theo sau. "Red Hat đã thông báo rằng họ có bản xem trước dành cho nhà phát triển của RHEL cho RISC-V", Gallo nói. "Fedora hiện đã có sẵn cho RISC-V. Tháng 1 năm ngoái, tại FOSDEM ở Châu Âu, Canonical đã tiết lộ rằng họ đang xây dựng kế hoạch hỗ trợ cấu hình RVA23 với Ubuntu. Thông điệp là RISC-V đã sẵn sàng cho các bộ xử lý ứng dụng và các hệ điều hành tiêu chuẩn."

Những khoản đầu tư đáng kể đang được thực hiện. “Một dự án thú vị khác ở châu Âu là dự án DARE,” Lapides nói. “Dự án này sẽ rót từ 260 đến 280 triệu Euro trong năm năm tới. Ba nhà cung cấp chính đều đang phát triển các chiplet, chứ không chỉ là sở hữu trí tuệ bộ xử lý. Một là CPU đa năng, một là bộ tăng tốc vector, và một là bộ tăng tốc AI. Các chiplet này sẽ được tích hợp. RISC-V với kiến ​​trúc chiplet mới rất thú vị.”

Kết luận

RISC-V có thể không phải là giải pháp hoàn hảo cho nhiều ứng dụng, đặc biệt là những ứng dụng liên quan đến AI, nhưng nó có thể mở ra một hướng đi mới. Hơn nữa, hiện tại chưa có giải pháp thay thế nào tốt hơn.

Rất ít cuộc cách mạng nào thành công trong ngành công nghiệp bán dẫn. Bằng cách xây dựng một cộng đồng cởi mở và ngày càng phát triển, những người nhanh chóng định hình những gì họ cần hôm nay, những gì họ nghĩ mình có thể cần trong tương lai, và với tầm nhìn hướng đến tương lai, họ có thể đạt được mục tiêu cuối cùng mà không phải chịu quá nhiều rủi ro. Bằng cách thực hiện từng bước nhỏ, hệ sinh thái có thể theo kịp và đạt được những tiến bộ vững chắc.

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.

Win a Raspberry Pi!

Answer 5 questions for your chance to win!
Question 1

What color is the sky?

Tìm kiếm bằng danh mục

Chọn danh mục