thảo luận NVIDIA GeForce RTX 40 series

Amazing.

Member

Nvidia RTX 40 series được kỳ vọng sẽ là cú nhảy vọt về hiệu năng ấn tượng như thời GTX 10 series​

Thế giới đã chời đợi nửa thập kỷ cho một cu nhảy vọt hiệu năng ấn tượng như thời RTX 10 series, có lẽ RTX 40 series sẽ làm được chuyện đó.

Đã quá lâu rồi thế giới chưa được thấy một bước nhảy vọt hiệu năng card đồ họa đáng nhớ như thời từ Maxwell lên Pascal. Dòng card GeForce GTX 1080 Ti đến nay vẫn được xem là dòng card “Ti” đỉnh nhất từng được tạo ra, đó là bước nhảy vọt mà Nvidia đã không thể tạo ra với những dòng card flagship thế hệ Turing và Ampere đã không thể đạt được. Không chỉ có thế, mức giá 699USD của GTX 1080 Ti cũng thực sự rất hấp dẫn vào lúc mà nó ra mắt. Hơn nữa Nvidia cũng hạ giá cho các phân khúc card đồ họa của mình.

NVIDIA-GeForce-GTX-1080-Ti_Performance-1030x510.png

Theo nhiều nguồn tin thì GPU GeForce RTX 40 Series kiến trúc Ada Lovelance sẽ có mức xung nhịp boost từ 2.2 đến 2.5 GHz, đây là một mức cải tiến đáng kể nếu so với mức 1.7 đến 1.9 của card đồ họa Ampere hiện nay. Trong khi đó thì chip GPU AD102 dự kiến sẽ có đến 18.432 nhân CUDA. Nếu thế thì nếu nhân cho mức xung nhịp 2.2GHz, chúng ta sẽ có mức hiệu suất tính toán FP32 tối đa đến 80TFLOP, tức là gấp 2.5 lần so với RTX 3090.

Bảng so sánh thông số GPU GeForce flagship qua từng thời thế hệ

GPUTU102GA102AD102
Kiến trúcTuringAmpereAda Lovelace
Tiến trìnhTSMC 12nm NFFSamsung 8nm5nm
Cụm xử lý đồ họa (GPC)6712
Cụm xử ký texture (TPC)364272
Streaming Multiprocessors (SM)7284144
Nhân CUDA46081075218432
Hiện năng tính toán (TFLOP)16.137.6~80?
Dòng card flagshipRTX 2080 TiRTX 3090RTX 4090?
TGP250W350W400-500W
Thời điểm ra mắt9/20189/202022 (dự kiến)
Nếu mức hiệu năng như trên là thật thì chúng ta sẽ được chứng kiến một bước nhảy vọt hiệu năng ngoạn mục như thời Pascal GTX 10 series. Chắc chắn thế hệ GPU tiếp theo của Nvidia sẽ rất đáng mong chờ đây, hy vọng họ sẽ không làm chúng ta thất vọng.

Tóm tắt nội dung:

  • Đã quá lâu rồi thế giới chưa được thấy một bước nhảy vọt hiệu năng card đồ họa đáng nhớ như thời từ Maxwell lên Pascal
  • Theo nhiều nguồn tin thì GPU GeForce RTX 40 Series kiến trúc Ada Lovelance sẽ có mức xung nhịp boost từ 2.2 đến 2.5 GHz, đây là một mức cải tiến đáng kể nếu so với mức 1.7 đến 1.9 của card đồ họa Ampere hiện nay.
  • Trong khi đó thì chip GPU AD102 dự kiến sẽ có đến 18.432 nhân CUDA. Nếu thế thì nếu nhân cho mức xung nhịp 2.2GHz, chúng ta sẽ có mức hiệu suất tính toán FP32 tối đa đến 80TFLOP, tức là gấp 2.5 lần so với RTX 3090.

Nguồn: WCCFTech
https://gvn360.com/cong-nghe/nvidia...ve-hieu-nang-an-tuong-nhu-thoi-gtx-10-series/
 

Lộ tin Nvidia GeForce RTX 40 series có tên mã Lovelace, sản xuất bằng tiến trình TSMC 5nm và ra mắt cuối 2022​

Theo một leaker thì dòng card Nvidia RTX 40 series “chắc chắn” sẽ dùng tiến trình TSMC 5nm.

Leaker nổi tiếng Kopite7kimi đã tung một số tin hành lang về dòng card đồ họa Nvidia GeForce RTX 40 series trên tài khoản Twitter của mình. Theo đó, thế hệ này sẽ dùng tiến trình TSMC 5 nm và có thể chuyển từ kiến trúc AD102 Lovelace sang GH202 Hopper, tùy vào màn ra mắt của kiến trúc AMD RDNA 3.



Tiếp đến, leaker Greymon55 cho biết thế hệ GPU mới của Nvidia đã hoàn tất khâu lên kế hoạch rồi, chuẩn bị đi vào giai đoạn thiết kế. Nếu điều này là đúng sự thật thì nó có nghĩa là Nvidia có thể đã chốt kiến trúc Lovelace. Greymon55 quả quyết rằng RTX 40 series sẽ dùng tiến trình TSMC 5 nm và kiến trúc Lovelace, nhưng chưa rõ đây sẽ là tiến trình 5 nm tiêu chuẩn hay là phiên bản N5P được cải thiện hiệu năng. Ngoài ra, anh còn dự đoán ngày ra mắt là vào khoảng cuối năm 2022.

RTX-40-series-2-1024x580.jpg

Ngoài ra, trang TechRadar cũng cung cấp một số thông tin bị lộ, cho biết chiếc card đầu bảng RTX 40 series sẽ có 144 streaming multiprocessor và 18432 nhân CUDA (nếu sử dụng kiến trúc AD102). Con số này gần như gấp đôi số nhân CUDA của RTX 3090 (10.496 nhân CUDA). Sau loạt thông tin này, có vẻ như NVIDIA vẫn sử dụng thiết kế monolithic như trước đây, khác với AMD đang có ý định chuyển sang kiến trúc môđun nhiều chip (MCM).

Tóm tắt ý chính:

  • Leaker nổi tiếng Kopite7kimi từng cho biết card Nvidia RTX 40 series sẽ dùng tiến trình TSMC 5 nm
  • Mới đây, leaker Greymon55 quả quyết rằng RTX 40 series sẽ dùng tiến trình TSMC 5 nm và kiến trúc Lovelace
  • Ngoài ra, anh còn dự đoán ngày ra mắt là vào khoảng cuối năm 2022
  • Trang TechRadar cũng cung cấp thêm tin hành lang là card đầu bảng RTX 40 series sẽ có 144 streaming multiprocessor và 18432 nhân CUDA

Nguồn: PC Gamer
https://gvn360.com/cong-nghe/lo-tin...bang-tien-trinh-tsmc-5nm-va-ra-mat-cuoi-2022/
 

NVIDIA sẽ bắt đầu sản xuất hàng loạt GPU GeForce RTX 40 Series ‘Ada Lovelace’ từ giữa năm 2022​

Theo chia sẻ từ leaker nổi tiếng Greymon55, dòng card đồ họa đầu bảng NVIDIA GeForce RTX 40 dựa trên kiến trúc GPU Ada Lovelace thế hệ mới được cho là sẽ bước vào giai đoạn sản xuất hàng loạt từ giữa năm 2022. Ngoài ra, thông tin chi tiết liên quan đến lộ trình gian sản xuất và thời điểm ra mắt của dòng sản phẩm rất đáng chú ý này cũng đã được tiết lộ tương đối chi tiết.

Tiết lộ từ Greymon55


Cụ thể trong bài tweet mới nhất, Greymon55 cho biết GPU AD102 của NVIDIA nhiều khả năng sẽ là model hàng đầu trong dòng sản phẩm Ada Lovelace, dự kiến ra mắt vào cuối năm nay hoặc đầu năm 2022. Sau đó sản phẩm sẽ tiếp tục trải qua các công đoạn đánh giá thử nghiệm thực thế trước khi đi vào sản xuất hàng loạt giữa năm 2022. Điều này cũng là phù hợp với những gì các tin đồn trước đó đã nêu.

GPU NVIDIA Ada Lovelace sẽ là nền tảng cung cấp sức mạnh cho các mẫu card đồ họa GeForce RTX 40 thế hệ tiếp theo, hứa hẹn tạo ra cuộc cạnh tranh quyết liệt với dòng sản phẩm Radeon RX 7000 series dựa trên RDNA 3 của đối thủ AMD, vốn cũng đang nhận được nhiều sự quan tâm từ cộng đồng. Vẫn còn một số suy đoán về việc liệu NVIDIA sẽ sử dụng MCM không, và nếu có thì như thế nào. Như đã biết, GPU Hopper, chủ yếu nhắm vào phân khúc Trung tâm dữ liệu & AI, được cho là sẽ sớm bị “loại biên” và thay thế bằng kiến trúc MCM. Tuy nhiên, việc NVIDIA sẽ sử dụng thiết kế MCM trên GPU Ada Lovelace của mình hay không vẫn là điều chưa thể khẳng định chính xác, ít nhất là ở thời điểm hiện tại.

 GPU Ada Lovelace


Ở phía đối diện, AMD đang cung cấp cả chip MCM và Monolithic trong các dòng sản phẩm RDNA 3 cũng như CDNA 2 của mình. Cụ thể, các GPU CDNA 2 chỉ là MCM trong khi RDNA 3 sẽ có sự kết hợp giữa MCM và thiết kế nguyên khối Monolithic. Theo nhận định từ giới chuyên gia, nhiều khả năng RDNA 3 & CDNA 2 của AMD sẽ là sự kết hợp của các nút quy trình 6nm và 5nm, trong khi NVIDIA dự kiến sẽ sử dụng nút quy trình 5nm của TSMC cho dòng sản phẩm Ada. Tuy nhiên, vẫn chưa rõ liệu GPU của Lovelace sẽ được chế tạo trên truy trình N5 hay N5P.

Trước đây, đã từng có không ít tin đồn về việc dòng sản phẩm GeForce RTX 40 hỗ trợ GPU Ada Lovelace của NVIDIA dự kiến sẽ mang tới một bước nhảy vọt về hiệu suất, tương tự như những gì đã được chứng kiến từ Maxwell đến Pascal. Tuy nhiên, việc ra mắt sẽ được đẩy sang cuối năm 2022 hoặc quý 1 năm 2023. Cà phải đến lúc đó, mọi thứ mới được kiểm chứng.

GPU NVIDIA CUDA (So sánh giữa các thế hệ):

GPU NVIDIA CUDA (So sánh giữa các thế hệ)


Có tin đồn rằng GPU đầu bảng của NVIDIA trong dòng Ada Lovelace, AD102, sẽ sở hữu tối đa 144 đơn vị SM với tổng số 9216 lõi, hoặc 18.432 lõi CUDA như thuật toán mới của NVIDIA cho biết. Nếu điều đó là thật, “người kế nhiệm” của RTX 3090 có thể cho hiệu suất cao gấp khoảng 2-2,5 lần so với các sản phẩm RDNA 3 của AMD.

Tuy nhiên, tất cả hiện điều chỉ là tin đồn, mặc dù đến từ nhiều nguồn uy tín nhưng cũng chỉ dừng lại ở mức tham khảo “cho vui”. NVIDIA có kế hoạch làm mới dòng sản phẩm RTX 30 'SUPER' như một bước đệm trước khi chuyển sang thế hệ tiếp theo, đó mới là điều đáng lưu tâm hơn nào lúc này.
https://quantrimang.com/gpu-geforce-rtx-40-series-ada-lovelace-183859
 

Xuất hiện công cụ EDA dùng trí thông minh nhân tạo để giảm một nửa chi phí phát triển GPU​


Nhờ ứng dụng trí thông minh nhân tạo, công cụ EDA của Synopsys sẽ đóng vai trò cực kì quan trọng trong ngành bóng bán dẫn.

Tại sự kiện Hot Chips 2021, Synopsys công bố một kế hoạch đầy tham vọng để phát triển một bộ công cụ tích hợp EDA (electronic design automation) ứng dụng trí thông minh nhân tạo (AI) hứa hẹn giảm chi phí phát triển card đồ họa đến 50%, rút ngắn thời gian tung sản phẩm ra thị trường, cải thiện hiệu năng, và tăng sản lượng. Samsung đã có con chip đầu tiên được thiết kế bằng công cụ EDA được AI hỗ trợ và nhận thấy nó có hiệu năng cao hơn, đồng thời tiết kiệm điện hơn.

trí thông minh nhân tạo
trí thông minh nhân tạo
Phần mềm DSO.ai của Synopsys sẽ giúp các nhà phát triển tạo ra những con chip tiết kiệm điện, hiệu năng cao, có kích thước die nhỏ, và nhất là giúp rút ngắn thời gian phát triển. Đây là điều vô cùng quan trọng do việc thiết kế chip đang ngày càng trở nên khó khăn hơn và trong những năm tới sẽ càng phức tạp hơn nữa. Do việc thiết kế chip sẽ càng ngày càng tốn kém, nhất là khi ngành công nghệ đang dần chuyển sang tiến trình 3 nm và bóng bán dẫn GAAFET, công cụ EDA với AI hỗ trợ sẽ càng trở nên quan trọng đối với những nhà sản xuất chip lớn.

trí thông minh nhân tạo
Synopsys còn cho biết thêm rằng với mô hình thiết kế mới, cộng với phần cứng được thiết kế bởi phần mềm sẽ giúp các nhà phát triển tiết kiệm thời gian và chi phí thiết kế rất nhiều; từ đó mở ra nhiều cơ hội cho các công ty khác bước chân vào mảng phát triển chip – điều mà trước đây họ không làm được cho chưa đủ kinh phí. Để tìm hiểu rõ hơn về phương pháp của Synopsys, các bạn có thể tham khảo tại đây nhé.
Tóm tắt ý chính:
  • Synopsys công bố kế hoạch phát triển bộ công cụ tích hợp Electronic Design Automation ứng dụng AI
  • Nó sẽ giúp giảm chi phí phát triển GPU đến 50%, rút ngắn thời gian tung sản phẩm ra thị trường, cải thiện hiệu năng, tăng sản lượng
  • Cụ thể, phần mềm DSO.ai của Synopsys sẽ tạo ra những con chip tiết kiệm điện, hiệu năng cao, có kích thước die nhỏ
  • Đây là điều vô cùng quan trọng do việc thiết kế chip ngày càng trở nên tốn kém và phức tạp
  • Nó còn mở ra cơ hội cho các công ty khác bước chân vào mảng phát triển chip

Nguồn: tom’s HARDWARE
https://gvn360.com/cong-nghe/xuat-h...n-tao-de-giam-mot-nua-chi-phi-phat-trien-gpu/
 

RTX 4090 gets restrictive US$2,999 MSRP in unofficial Nvidia GeForce RTX 40 series price predictions list​


Expectations are high for the Lovelace GeForce RTX 40 series of graphics cards from Nvidia, and it seems price predictions are similarly high. There have been a few suggestions that the top-end GeForce RTX 4090 card could end up being stuck with an MSRP of US$2,999, leaving it likely out of reach for the majority of gamers.

A list of price predictions for the RTX 40 series of graphics cards has been posted by the content creator Graphically Challenged, who is known for his regular YouTube video updates concerning GPUs. He hasn’t claimed that it is a leak or tip from an insider, and he makes it clear that these are MSRP price predictions. While the potential Nvidia GeForce RTX 4050 and RTX 4060 sit at reasonable price points, the estimate for the RTX 4090 is clearly prohibitive for many:

GeForce SKUPredicted price
RTX 4090US$2,999
RTX 4080 TiUS$1,999
RTX 4080US$1,199
RTX 4070US$799
RTX 4060 TiUS$499
RTX 4060US$399
RTX 4050 TiUS$329
RTX 4050US$279

Of course, if crypto miners are in the market for RTX 40 series cards and the chip shortage is still affecting availability by launch time (possibly October 2022) then the MSRP will rapidly become a forlorn hope and memory for gamers and DIY PC builders. Scalpers and profit-hungry retailers would soon push prices even further.

However, asking prices for RTX 30 series cards from Nvidia and Radeon RX 6000 cards from AMD have been reportedly falling as of late, and Intel should soon be entering the fray with its DG2 offering that should make the market more competitive for buyers. So the figures from Graphically Challenged may be too pessimistic, with US$1,999 to US$2,500 arguably being a more likely price range for the GeForce RTX 4090.

Official prices for the RTX 40 series cards won’t be decided by Nvidia until the very last moment as the graphics card market is certainly volatile and Team Green will want to price its products accordingly. However, it is rumored that the Lovelace GPU-based RTX 40 series could offer twice the performance of current Ampere RTX 30 parts – so maybe twice the price for the flagship RTX 4090 model isn't as improbable as it first seems.


https://www.notebookcheck.net/RTX-4...0-series-price-predictions-list.560778.0.html
 

Nvidia ra mắt công nghệ DLAA giúp khử răng cưa bằng AI, Elder Scrolls Online là tựa game đầu tiên hỗ trợ​

Thay vì dùng DLSS để giảm tải cho GPU, Nvidia giờ đã có công nghệ DLAA để giúp hình ảnh trở nên đẹp mắt hơn nhiều.

Cách đây không lâu, kênh Twitch của Bethesda đã chia sẻ rằng trong bản cập nhật sắp tới của Elder Scrolls Online, tựa game sẽ hỗ trợ DLSS và DLAA. Trong đó DLSS (Deep Learning Super Sampling) thì ra đã vài năm nên chắc mấy bạn cũng biết rồi. Đây là công nghệ giúp card đồ họa xử lý game ở độ phân giải thấp sau đó phóng nó lên độ phân giải cao và làm nét lại bằng AI, giúp giảm tải độ sát phần cứng.

Nvidia-DLAA-2-1024x576.jpg

DLAA thì là một công nghệ mới, lý do nó ra đời là vì những chiếc card cao cấp hiện nay đã có thể chạy những tựa game cũ với một mức FPS rất cao nên không cần tăng FPS nữa mà cần cải thiện chất lượng hình ảnh. DLAA giống như một phiên bản khác của DLSS vậy, thay vì tăng FPS trên độ phân giải lớn, card đồ họa sẽ dùng AI để khử răng cưa và cho hình ảnh đẹp mắt hơn. Đương nhiên là nếu muốn bật DLAA thì bạn sẽ phải có card đồ họa RTX của Nvidia mới được

Elder Scrolls Online sẽ là tựa game đầu tiên hỗ trợ DLAA. Đáng tiếc là buổi livestream không cho thấy kết quả thực tế của công nghệ mới này nhưng ít nhất thì chúng ta cũng biết tính năng DLAA sẽ có trên server Public Test của Elder Scrolls Online trong bản cập nhật sắp tới. Việc nó thực sự hiệu quả đến đâu sẽ rất đáng mong đợi đây.

Tóm tắt nội dung:

  • Bethesda chia sẻ trong bản cập nhật sắp tới của Elder Scrolls Online sẽ có thêm tính năng DLSS và DLAA
  • DLAA sẽ dùng AI để khử răng cưa và cho ra hình ảnh đẹp mắt hơn, thay vì là dùng AI để cải thiện FPS như DLSS
  • Elder Scrolls Online sẽ là tựa game đầu tiên hỗ trợ DLAA

Nguồn: WCCF Tech
https://gvn360.com/cong-nghe/nvidia...r-scrolls-online-la-tua-game-dau-tien-ho-tro/
 

Nvidia đăng ký công nghệ chồng chip 3D Face-to-Face cho thế hệ GPU trong tương lai​

Nvidia vừa mới nộp bằng sáng chế công nghệ chồng chip 3D Face-to-Face nhằm tăng hiệu năng và tối ưu chi phí.

Trong những năm gần đây thì các hãng bóng dẫn đã tìm những cách mới để thiết kế GPU die giúp tăng hiệu năng và vẫn giữ chi phí ở mức hợp lý, thay vì theo kiểu nguyên khối (monolithic) như truyền thống. Trong đó, giải pháp mới nhất của Nvidia là dùng xếp chồng chip 3D bằng công nghệ through-silicon via (TSV) kết hợp với khả năng cấp nguồn tốt hơn. Nghe qua thì khá là tương đồng với công nghệ của AMD, Intel, TSMC, nhưng đối với Nvidia thì có một vài điểm khác biệt.

Theo bằng sáng chế gần đây nhất của Nvidia thì họ gọi công nghệ này là “Face-to-face dies with enhanced power delivery using extended TSVs”. Nvidia đã đưa ra ý tưởng về việc xếp chồng 3D các die bóng bán dẫn và cải thiện nguồn cấp điện bằng cách dùng through-silicon vias (TSVs) dài hơn bình thường.

Nvidia chồng chip 3D

Cách thức hoạt động của nó là phần base die sẽ được thử nghiệm đầu tiên bằng cách dùng các probe pads trên bề mặt die. Sau đó, một lớp giao tiếp (interface layer) sẽ được tạo ra trên mặt của die đầu tiên, đè lên trên các probe pads đó. Cuối cùng, die thứ nhì sẽ được đặt trên lớp giao tiếp, liên kết các probe pads của lớp giao tiếp với các kết nối của những die khác. Kết quả là sẽ tạo ra “face-to-face mounting” trên các die, hình thành nên chip 3D.

Bằng sáng chế của Nvidia tập trung vào việc cải thiện nguồn cấp điện bằng cách dùng TSVs dài hơn bình thường. Khi xếp chồng die theo kiểu này, chúng ta có thể kết nối bất kì thứ gì từ nhân xử lý logic cho đến bộ nhớ. Thường thì việc kết nối bộ nhớ không cần quá nhiều điện năng, cho nên ta có thể suy ra là Nvidia đang dự định xếp chồng các nhân xử lý lên nhau, tạo ra vi xử lý 3D chuyên tính toán.

bfcd0fa90182b696678036a94b723fe5-1024x576.jpg

Dĩ nhiên là việc nộp bằng sáng chế không có nghĩa là nó sẽ được đưa vào sử dụng trong thực tế. Các công ty thường nộp bằng sáng chế để ngăn đối thủ làm trước mình, hoặc cũng có thể chỉ là chừa chỗ (placeholder) cho những sản phẩm trong tương lai. Dù sao đi nữa thì chúng ta đều biết được rằng GPU với thiết kế môđun tích hợp nhiều chip (MCM) đang dần xuất hiện, kết hợp với công nghệ xếp chồng 3D thì lợi thế của nó sẽ càng tăng thêm nhiều nữa.

Tóm tắt ý chính:

  • Bằng sáng chế gần đây của Nvidia đề cập đến việc xếp chồng chip 3D bằng công nghệ through-silicon via (TSV) kết hợp với khả năng cấp nguồn tốt hơn
  • Nvidia gọi công nghệ này là “Face-to-face dies with enhanced power delivery using extended TSVs”
  • Bằng sáng chế của Nvidia tập trung vào việc cải thiện nguồn cấp điện, giúp tạo ra vi xử lý 3D chuyên tính toán
  • Cần lưu ý là việc nộp bằng sáng chế không có nghĩa là nó sẽ được đưa vào sử dụng trong thực tế

Nguồn: tom’s HARDWARE
https://gvn360.com/cong-nghe/nvidia...-face-to-face-cho-the-he-gpu-trong-tuong-lai/
 
Vẫn nhớ cái thời đỉnh cao của Nvidia từ dòng GTX980 đổ lại. Năm nào cũng ra kiến trúc mới nhưng hiệu năng chả tăng là bao. Đang xài GTX980 chuyển lên 1080 đúng kiểu 1 chân trời mới.:big_smile:
 
Vẫn nhớ cái thời đỉnh cao của Nvidia từ dòng GTX980 đổ lại. Năm nào cũng ra kiến trúc mới nhưng hiệu năng chả tăng là bao. Đang xài GTX980 chuyển lên 1080 đúng kiểu 1 chân trời mới.:big_smile:
Là do quy trình sx đó
Kiến trúc mới nhưng họ khó tăng core và clock vì vướng vào con 28nm bất tử của tsmc
Tới pascal đúng thời điểm xuống 16nm chả là đại nhảy vọt
 

Nvidia khẳng định hiệu năng chip ARM ngang ngửa vi xử lý x86, GPU A100 mạnh hơn CPU đến 104 lần​

Nvidia đã bắt đầu quảng bá cho kiến trúc ARM bằng những bài benchmark hiệu năng.

Nvidia cho biết một máy chủ trang bị GPU A100 và chip ARM có hiệu năng gần sát với phiên bản được trang bị CPU x86, mặc dù x86 vẫn có hiệu năng tối đa cao hơn. Vấn đề ở đây là tuy chip ARM có thể đo ván chip x86 về mặt tiết kiệm điện, nó lại không thể phát huy thế mạnh này khi chạy ở xung nhịp cao. Máy chủ là môi trường đòi hỏi hiệu năng cao nên CPU x86 thường sẽ thắng thế. Tuy nhiên, theo benchmark của Nvidia thì máy chủ trang bị chip ARM cùng GPU A100 có khả năng vượt mặt cả kiến trúc x86 trong tác vụ 3d-Unet, còn những tác vụ quen thuộc khác như ResNet 50 thì x86 vẫn chiếm ưu thế.

Nvidia ARM

Còn khi nói về mặt suy luận (inference) thì GPU vẫn là trùm các bạn ạ. Nvidia cho biết GPU A100 nhanh hơn gấp 104 lần so với CPU trong bài benchmark MLPERF. Các bài benchmark “inference” của MLPERF được dựa trên các tác vụ AI và tình huống phổ biến nhất hiện nay. “Inference” là khi máy tính chạy phần mềm AI (trí thông minh nhân tạo) để nhận biết đồ vật hoặc đưa ra phỏng đoán. Quá trình này dùng mô hình deep learning để lọc dữ liệu, tìm kiếm những kết quả nằm ngoài khả năng của con người.

Nvidia ARM

Những thứ phổ biến như benchmark Image Classification ResNet-50 cho đến Natual Language Processing đều được thử nghiệm và GPU A100 đều chiến thắng một cách đầy thuyết phục. Nvidia hiện đang đối mặt với những rào cản cuối cùng về mặt pháp lý để mua lại ARM. Nếu thương vụ này xong xuôi thì chip ARM có thể bắt đầu xâm chiếm mảng máy chủ. Nó sẽ không thể diễn ra trong một sớm một chiều đâu, nhưng viễn cảnh này đang đến rất gần rồi đó.

Tóm tắt ý chính:

  • Nvidia cho biết máy chủ trang bị GPU A100 và chip ARM có hiệu năng sát với phiên bản trang bị CPU x86
  • Cụ thể thì máy chủ dùng chip ARM cùng GPU A100 vượt mặt cả CPU x86 trong tác vụ 3d-Unet, còn những tác vụ quen thuộc khác thì x86 vẫn nhỉnh hơn
  • Còn khi nói về mặt suy luận (inference) thì GPU Nvidia A100 nhanh gấp 104 lần so với CPU trong benchmark MLPERF

Nguồn: Wccftech
https://gvn360.com/cong-nghe/nvidia...-xu-ly-x86-gpu-a100-manh-hon-cpu-den-104-lan/
 
Là do quy trình sx đó
Kiến trúc mới nhưng họ khó tăng core và clock vì vướng vào con 28nm bất tử của tsmc
Tới pascal đúng thời điểm xuống 16nm chả là đại nhảy vọt
tôi thì thấy gen 980 này mới là đại nhảy vọt cùng node nhưng hiếp kepler ko kịp ngáp
 
tôi thì thấy gen 980 này mới là đại nhảy vọt cùng node nhưng hiếp kepler ko kịp ngáp
Tôi cũng thấy kiến trúc 900 với 700 tăng tiến, cùng xung cùng số corw cùng ram mà tăng được tầm 3x %
Đám 1000 với 900 tăng mạnh hiệu năng là do tăng chút core, xung tăng được ít nhất gấp rưỡi
Chứ cùng xung cùng số core còn kém hơn 900
 
do intel nó ngủ hơi lâu thôi chứ nó mà phát triển mỗi năm như amd bây giờ thì arm là cái dbrr :doubt:
mày ngáo à
đồ họa thì in tèo từ trước tới nay so với nvidia hay amd đều là cứt đái hết . tương lại gần 10 năm tới cũng vậy
 
mày ngáo à
đồ họa thì in tèo từ trước tới nay so với nvidia hay amd đều là cứt đái hết . tương lại gần 10 năm tới cũng vậy
thanh nên này nhảm, hắn nói CPU lại mang GPU zô.
IPC nếu với lượng dữ liệu nhỏ thì x86 ngon hơn nhưng khi dữ liệu rất lớn thì IPC lại phụ thuộc vào băng thông bộ nhớ chứ ko phụ thuộc vào CPU nữa, GPU cũng như vậy.
GPU hiện tại có khả năng xử lý dữ liệu rất lớn nhưng băng thông PCIe quá nhỏ so với nhu cầu dữ liệu của GPU. Nvidia rất muốn cải thiện bằng tích hợp Nvlink vào CPU nhưng x86 độc quyền, Nvidia ko thể làm gì đc ngoài tích hợp nó hẳn vào ARM. Như vậy băng thông sẽ lên rất cao đáp ứng yêu cầu GPU lấy dữ liệu từ Ram trên 500GB/s khi Grace đi vào sản xuất. Con CPU mới này của Nvidia chạy p2p với GPU của Nvidia.
Vấn đề này AMD cũng dính phải nhưng giải quyết theo hướng khác tức là coi CPU và GPU thành APU, như vậy CPU hay GPU lấy bộ nhớ GPU thành Ram chính. Băng thông có khi còn cao gấp nhiều lần.
 
thanh nên này nhảm, hắn nói CPU lại mang GPU zô.
IPC nếu với lượng dữ liệu nhỏ thì x86 ngon hơn nhưng khi dữ liệu rất lớn thì IPC lại phụ thuộc vào băng thông bộ nhớ chứ ko phụ thuộc vào CPU nữa, GPU cũng như vậy.
GPU hiện tại có khả năng xử lý dữ liệu rất lớn nhưng băng thông PCIe quá nhỏ so với nhu cầu dữ liệu của GPU. Nvidia rất muốn cải thiện bằng tích hợp Nvlink vào CPU nhưng x86 độc quyền, Nvidia ko thể làm gì đc ngoài tích hợp nó hẳn vào ARM. Như vậy băng thông sẽ lên rất cao đáp ứng yêu cầu GPU lấy dữ liệu từ Ram trên 500GB/s khi Grace đi vào sản xuất. Con CPU mới này của Nvidia chạy p2p với GPU của Nvidia.
Vấn đề này AMD cũng dính phải nhưng giải quyết theo hướng khác tức là coi CPU và GPU thành APU, như vậy CPU hay GPU lấy bộ nhớ GPU thành Ram chính. Băng thông có khi còn cao gấp nhiều lần.
mày còn ngáo hơn . đang ở topic nói về gpu chứ có ai nói về cpu đéo đâu .
 

Giám đốc điều hành NVIDIA Jensen Huang hé lộ thông tin hấp dẫn về sản phẩm và công nghệ AI tại GTC Keynote​

Cùng với CEO Nvidia là Jensen Huang, các diễn giả hàng đầu trong lĩnh vực AI cũng sẽ chia sẻ tại hội nghị này.

Nvidia sẽ tổ chức hội nghị trực tuyến GTC Keynote với quy mô toàn cầu từ ngày 8 đến ngày 11 tháng 11 năm 2021. Sự kiện này sẽ có bài phát biểu chính của Nhà sáng lập kiêm Giám đốc điều hành NVIDIA Jensen Huang, song song đó là các buổi chia sẻ từ một số chuyên gia hàng đầu trên thế giới về lĩnh vực AI. Bài phát biểu của ông Huang sẽ diễn ra vào lúc 15h ngày 09/11/2021 (giờ Việt Nam).

Nvidia Jensen Huang
Dự kiện có hơn 200.000 nhà phát triển, nhà sáng tạo, nhà nghiên cứu sẽ đăng ký tham gia. Sự kiện này sẽ tập trung vào học sâu (deep learning), khoa học dữ liệu, tính toán hiệu suất cao, robot, trung tâm dữ liệu, mạng và đồ họa. Các diễn giả sẽ chia sẻ những đột phá mới nhất làm thay đổi một số ngành công nghiệp lớn nhất thế giới, chẳng hạn như chăm sóc sức khỏe, giao thông vận tải, sản xuất, bán lẻ và tài chính.


Các phiên họp và diễn giả đã được sắp xếp để cung cấp thông tin và truyền cảm hứng cho các nhà phát triển, nhà nghiên cứu, nhà khoa học, nhà giáo dục, chuyên gia và sinh viên từ các nhóm ít được đại diện trong lịch sử. Các lĩnh vực sẽ được đề cập còn có cả những chủ đề như xây dựng bộ dữ liệu tốt hơn và làm cho AI trở nên toàn diện hơn.

Các diễn giả chính tại sự kiện sẽ có mặt:

  • Anima Anandkumar, giám đốc nghiên cứu ML tại NVIDIA và giáo sư Bren tại Caltech
  • Alan Aspuru-Guzik, giáo sư hóa học và khoa học máy tính, Đại học Toronto
  • Alan Bekker, trưởng bộ phận AI đàm thoại, Snap
  • Samy Bengio, giám đốc cấp cao về nghiên cứu AI và ML, Apple
  • Kay Firth-Butterfield, người đứng đầu AI và ML, Diễn đàn Kinh tế Thế giới
  • Axel Gern, CTO, Daimler Trucks
  • Fei-Fei Li, giáo sư khoa học máy tính, Đại học Stanford
  • Keith Perry, CIO, Bệnh viện Nghiên cứu Trẻ em St. Jude
  • Venkatesh Ramanathan, giám đốc Khoa học Dữ liệu, PayPal
  • Ilya Sutskever, đồng sáng lập và nhà khoa học chính, OpenAI
  • Tim Sweeney, sáng lập và Giám đốc điều hành, Epic Games
  • Nir Zuk, sáng lập và CTO, Palo Alto Networks
Các nhà lãnh đạo từ hàng trăm tổ chức khác cũng sẽ có mặt, bao gồm Amazon, Arm, AstraZeneca, Baidu, BMW, Domino’s, Electronic Arts, Facebook, Ford, Google, Microsoft, MIT, Oak Ridge National Laboratory, Red Hat, Rolls-Royce, Salesforce, Samsung, ServiceNow, Snap, Volvo, Walmart và WPP.

Các bạn có thể tìm hiểu thêm về GTC tại www.nvidia.com/gtc và đăng ký miễn phí TẠI ĐÂY nhé.
https://gvn360.com/cong-nghe/giam-d...-ve-san-pham-va-cong-nghe-ai-tai-gtc-keynote/
 
Back
Top