Business analyst

MLCommons ™ phát hành kết quả MLPerf ™ Inference v1.1

Hôm nay, MLCommons, một tập đoàn kỹ thuật mở, đã công bố kết quả mới cho MLPerf Inference v1.1, bộ tiêu chuẩn hiệu suất suy luận máy học của tổ chức. MLPerf Inference đo lường hiệu suất của việc áp dụng mô hình học máy được đào tạo vào dữ liệu mới cho nhiều ứng dụng và hệ số dạng khác nhau, đồng thời bao gồm tùy chọn đo công suất hệ thống. MLPerf Inference là một điểm chuẩn hệ thống đầy đủ, kiểm tra các mô hình học máy, phần mềm và phần cứng. Bộ tiêu chuẩn mã nguồn mở và được đánh giá ngang hàng cung cấp một sân chơi bình đẳng để cạnh tranh thúc đẩy sự đổi mới và hiệu suất cho toàn bộ ngành. Trong khi phần lớn các hệ thống được cải thiện 5 – 30% chỉ trong 5 tháng, một số bài gửi đã cải thiện hơn hai lần hiệu suất trước đó, chứng tỏ giá trị của việc tối ưu hóa phần mềm sẽ có tác động thực sự đến khối lượng công việc của AI. Tương tự như các kết quả Suy luận MLPerf trước đây, các bài gửi bao gồm hai phần: đóng và mở. Các bài gửi kín sử dụng cùng một mô hình tham chiếu để đảm bảo một sân chơi bình đẳng giữa các hệ thống, trong khi những người tham gia trong bộ phận mở được phép gửi nhiều mô hình khác nhau. Các bài nộp cũng được phân loại theo tính khả dụng trong từng bộ phận, bao gồm các hệ thống có sẵn trên thị trường, trong bản xem trước và RDI (nghiên cứu, phát triển và nội bộ). MLPerf Inference v1.1 dẫn đến mục tiêu của MLCommons hơn nữa là cung cấp các điểm chuẩn và số liệu giúp cân bằng sân chơi trong ngành thông qua việc so sánh các hệ thống ML, phần mềm và giải pháp. Vòng điểm chuẩn mới nhất đã nhận được bài nộp từ 20 tổ chức và công bố hơn 1, 800 kết quả hiệu suất được đánh giá ngang hàng cho máy học hệ thống trải dài từ các thiết bị biên đến máy chủ trung tâm dữ liệu. Đây là vòng thứ hai của MLPerf Inference cung cấp phép đo công suất, với kết quả công suất trên 350. Các bài nộp trong vòng này bao gồm các cải tiến phần mềm và phần cứng từ Alibaba, Centaur Technology, cTuning, Dell, EdgeCortix, Fujitsu, FuriosaAI, Gigabyte, HPE, Inspur, Intel, Krai, Lenovo, LTechKorea, Nettrix, Neuchips, NVIDIA, OctoML, Qualcomm Technologies, Inc ., và Supermicro. Đặc biệt, MLCommons muốn chúc mừng những người gửi mới cTuning, LTechKorea và OctoML. Để xem kết quả, vui lòng truy cập https://mlcommons.org/vi/inference-datacenter-11/ và https://www.mlcommons.org/ en / inference-edge – 11 /. Ramesh Chukka, Đồng Chủ tịch Nhóm Công tác Suy luận MLPerf cho biết: “Chúng tôi đã có một bộ kết quả vượt trội cho thấy sự cải thiện đáng kể trên bộ tiêu chuẩn MLPerf Inference. “Chúng tôi rất vui mừng về việc mang lại những thành tựu về hiệu suất này cho cộng đồng AI. Xin chúc mừng tất cả những người gửi của chúng tôi, đặc biệt là những nhóm gửi lần đầu tiên. ” David Kanter, Giám đốc Điều hành của MLCommons cho biết: “Sự tiến bộ được thể hiện trong vòng kết quả này là vượt trội trong một khoảng thời gian ngắn như vậy. “Chúng tôi đặc biệt vui mừng khi thấy thêm nhiều nhà cung cấp giải pháp phần mềm tham gia cộng đồng MLPerf để giúp cải thiện việc học máy”. Thông tin bổ sung về điểm chuẩn của Inference v1.1 sẽ có sẵn tại https://mlcommons.org/vi/inference-datacenter-11/ và https: // www.mlcommons.org/en/inference-edge-11/. Đăng ký nhận bản tin InsideBIGDATA miễn phí. Tham gia với chúng tôi trên Twitter: @ InsideBigData1 – https://twitter.com/InsideBigData1

  • Trang chủ
  • Trí tuệ nhân tạo
  • Chuyên viên phân tích kinh doanh
  • Thông tin kinh doanh
  • Khoa học dữ liệu
  • Back to top button