Chủ tịch Alibaba thừa nhận AI Trung Quốc đi sau Mỹ 2 năm

GloryJack

Senior Member

Đồng sáng lập kiêm Chủ tịch Alibaba Joe Tsai nhận xét, Trung Quốc đi sau Mỹ 2 năm trong cuộc đua trí tuệ nhân tạo (AI) toàn cầu, một phần do các hạn chế công nghệ của Washington.​


"Trung Quốc có phần tụt hậu, rõ ràng", ông Tsai nói và dẫn ví dụ OpenAI – nhà phát triển ChatGPT – đã vượt qua phần còn lại của ngành công nghệ trong đổi mới AI. Chủ tịch Alibaba đưa ra nhận định trong podcast với Nicolai Tangen, CEO ngân hàng đầu tư Norges Bank.

Ông Tsai chỉ ra các hãng công nghệ của Trung Quốc "có thể đi sau hai năm" so với các công ty AI hàng đầu ở Mỹ. Các hạn chế xuất khẩu của Mỹ nhằm ngăn cản Trung Quốc tiếp cận các chất bán dẫn tiên tiến như các đơn vị xử lý đồ họa (GPU) của Nvidia, "chắc chắn ảnh hưởng" đến các hãng công nghệ ở đại lục, bao gồm cả Alibaba.

CEO Nicolai Tangen và Chủ tịch Alibaba Joe Tsai (phải) trong podcast vừa được công bố. Ảnh: YouTube

CEO Nicolai Tangen và Chủ tịch Alibaba Joe Tsai (phải) trong podcast vừa được công bố. Ảnh: YouTube

Alibaba cho biết, các lệnh cấm này tác động đến hoạt động kinh doanh đám mây và khả năng cung cấp dịch vụ điện toán cao cấp cho khách hàng. Ông gọi đây là vấn đề ngắn và trung hạn.

Tháng 11/2023, Alibaba hủy kế hoạch tách bộ phận Cloud Intelligence vì có thể không đạt hiệu quả mong muốn do bất ổn từ các hạn chế xuất khẩu mở rộng của Mỹ với bán dẫn. Tuần trước, chính quyền Mỹ đã cập nhật các biện pháp kiểm soát xuất khẩu sâu rộng, khiến Trung Quốc khó tiếp cận bộ xử lý AI tiên tiến, thiết bị sản xuất bán dẫn và thậm chí laptop tích hợp chip hiện đại. Quy định mới có hiệu lực từ ngày 4/4.

Bình luận thẳng thắn của ông Thái trong cuộc phỏng vấn phản ánh mối quan tâm của ngành công nghệ Trung Quốc nói chung về cách các biện pháp kiểm soát xuất khẩu đang làm giảm đổi mới AI trong nước, cạnh tranh kém hơn trong lĩnh vực quan trọng này.

Đồng sáng lập Alibaba chia sẻ, các công ty công nghệ Trung Quốc đang tiếp tục tìm cách giảm thiểu tác động của lệnh cấm, bao gồm tìm nguồn cung ứng bộ xử lý tiên tiến từ các nhà cung cấp khác và dự trữ chip có sẵn trên thị trường. Chẳng hạn, năm 2023, Baidu đặt mua chip AI từ Huawei.

“Tôi cho rằng trong năm tới hoặc 18 tháng tới, việc đào tạo về các mô hình ngôn ngữ lớn (LLM) vẫn có thể được tiến hành với hàng dự trữ mà mọi người có", ông Tsai nói. Để đào tạo AI, có nhiều lựa chọn và không nhất thiết cần đến chip công suất cao như model mới nhất của Nvidia. Ông Tsai dự đoán về dài hạn, Trung Quốc sẽ có thể tự sản xuất GPU cao cấp.

Trong sự kiện hồi tháng 10/2023, Chủ tịch Alibaba tuyên bố mục tiêu của Alibaba Cloud là biến AI thành công cụ làm việc khổng lồ, đặc biệt cho doanh nghiệp vừa và nhỏ. 80% các hãng công nghệ Trung Quốc và một nửa số công ty tham gia vào phát triển LLM trên toàn cầu đang chạy trên Alibaba Cloud.

 
Nghe 2 năm nó hãnh diện làm sao. Có ai tin là 2 năm không.
Con llama3 của meta train cần tổng cộng 7.7 triệu giờ sử dụng H100 chạy full 700W, 1 con H100 tương đương 4 con 4090 ( nói quá 1 chút ), mà 4090 chúng nó còn cấm xuất vào trung quốc, và 4090 cũng éo có nvlink để ghép lại train llm cần bộ nhớ lớn. Éo biết Trung Quốc lấy đâu ra đủ số VGA để train 1 con ra hồn đây
 
Nghe 2 năm nó hãnh diện làm sao. Có ai tin là 2 năm không.
Con llama3 của meta train cần tổng cộng 7.7 triệu giờ sử dụng H100 chạy full 700W, 1 con H100 tương đương 4 con 4090 ( nói quá 1 chút ), mà 4090 chúng nó còn cấm xuất vào trung quốc, và 4090 cũng éo có nvlink để ghép lại train llm cần bộ nhớ lớn. Éo biết Trung Quốc lấy đâu ra đủ số VGA để train 1 con ra hồn đây
Train bằng tỉ thằng dân
 
Qua đọc báo Tây lông thì ước tính từ lúc cấm vận công nghệ cao thì khoảng cách từ 2 lên 5 thế hệ và tiếp tục có xu hướng nới rộng :)
 
Về hệ thống phần cứng hay hệ thống siêu máy tính trung nó thừa có. Nhưng công nghệ Al thì chưa copy dc. Nhưng t tin china trước sau gì cũng sẽ ăn cắp dc thôi. Hạt nhân, vệ tinh, bán dẫn nó còn ăn cắp dc. Dù ghét hay chê nhưng phải công nhận sau mỹ nó giỏi
 
Nghe 2 năm nó hãnh diện làm sao. Có ai tin là 2 năm không.
Con llama3 của meta train cần tổng cộng 7.7 triệu giờ sử dụng H100 chạy full 700W, 1 con H100 tương đương 4 con 4090 ( nói quá 1 chút ), mà 4090 chúng nó còn cấm xuất vào trung quốc, và 4090 cũng éo có nvlink để ghép lại train llm cần bộ nhớ lớn. Éo biết Trung Quốc lấy đâu ra đủ số VGA để train 1 con ra hồn đây
Vấn đề vẫn là dữ liệu kém chất lượng thôi, chứ gom cả số GPU thì tàu vẫn làm được. Lão sếp gì bên tàu đề xuất chia sẻ gpus với dữ liệu để đua llm với mỹ, nhưng tất nhiên với chả có thằng nào tự nhiên mang đồ ngon mình ra cống cho của công cả rồi.
[2402.15627v1] MegaScale: Scaling Large Language Model Training to More Than 10,000 GPUs (https://arxiv.org/abs/2402.15627v1)
 
Vấn đề vẫn là dữ liệu kém chất lượng thôi, chứ gom cả số GPU thì tàu vẫn làm được. Lão sếp gì bên tàu đề xuất chia sẻ gpus với dữ liệu để đua llm với mỹ, nhưng tất nhiên với chả có thằng nào tự nhiên mang đồ ngon mình ra cống cho của công cả rồi.
[2402.15627v1] MegaScale: Scaling Large Language Model Training to More Than 10,000 GPUs (https://arxiv.org/abs/2402.15627v1)
có 10k con H100 thì nói làm gì, thằng FB đang có 300k con h100, thằng tesla thì đã có 100k gpu H100 rồi kìa bố, cả thế giới thua nhiều lắm
ZhltM3Z.png
thằng nvidia giờ làm ra chỉ bán cho mỹ thôi là hết rồi ko còn ai mua dc hết
O0w112T.png
 
có 10k con H100 thì nói làm gì, thằng FB đang có 300k con h100, thằng tesla thì đã có 100k gpu H100 rồi kìa bố, cả thế giới thua nhiều lắm
ZhltM3Z.png
thằng nvidia giờ làm ra chỉ bán cho mỹ thôi là hết rồi ko còn ai mua dc hết
O0w112T.png
10k là chỉ 1 công ty và cũng chỉ là 1 ví dụ nhỏ do nhóm research nó làm thôi, chứ cả tập đoàn hay cả nước chả nhẽ không đủ, với cả cũng có thể finetune sử dụng tiếp các con open source chứ đâu nhất thiết train lại từ đầu. Vấn đề là chưa có được dữ liệu thật ngon và bọn này nó không liên kết với nhau để làm thôi.
 
Nghe 2 năm nó hãnh diện làm sao. Có ai tin là 2 năm không.
Con llama3 của meta train cần tổng cộng 7.7 triệu giờ sử dụng H100 chạy full 700W, 1 con H100 tương đương 4 con 4090 ( nói quá 1 chút ), mà 4090 chúng nó còn cấm xuất vào trung quốc, và 4090 cũng éo có nvlink để ghép lại train llm cần bộ nhớ lớn. Éo biết Trung Quốc lấy đâu ra đủ số VGA để train 1 con ra hồn đây
Tập dữ liệu tàu nó đông hơn và fine tuning có thể đã tốt hơn từ rất lâu rồi vì ko nhiều cái kiểu privacy
Thêm nữa là cái vụ AI này đã có ai commercial product chưa nhỉ vẫy costing quá
 
10k là chỉ 1 công ty và cũng chỉ là 1 ví dụ nhỏ do nhóm research nó làm thôi, chứ cả tập đoàn hay cả nước chả nhẽ không đủ, với cả cũng có thể finetune sử dụng tiếp các con open source chứ đâu nhất thiết train lại từ đầu. Vấn đề là chưa có được dữ liệu thật ngon và bọn này nó không liên kết với nhau để làm thôi.
có mua dc éo đâu bị cấm vận từ năm ngoái rồi,mua lén cũng éo thể nào mua cả trăm nghìn con mà ko ai biết được :byebye:

via theNEXTvoz for iPhone
 
Back
Top