#Cohere #CommandR7B #Rseries #RAG #AI #23ngônngữ #AItechnology #tòanmạnh #modelAI #vượttrội #môhìnhmới #AIinnovation #AIdevelopment #tốcđộ #hiệusuất #AIresearch #AIcommunity Nguồn: https://venturebeat.com/ai/coheres-smallest-fastest-r-series-model-excels-at-rag-reasoning-in-23-languages/
Tham gia các bản tin hàng ngày và hàng tuần của chúng tôi để có những cập nhật mới nhất và nội dung độc quyền về phạm vi phủ sóng AI hàng đầu trong ngành. Tìm hiểu thêm
Chứng minh ý định hỗ trợ nhiều trường hợp sử dụng của doanh nghiệp – bao gồm cả những trường hợp không yêu cầu tốn kém, sử dụng nhiều tài nguyên mô hình ngôn ngữ lớn (LLM) – khởi nghiệp AI mạch lạc đã phát hành Command R7B, phiên bản nhỏ nhất và nhanh nhất trong dòng model R của mình.
Command R7B được xây dựng để hỗ trợ tạo mẫu và lặp nhanh, đồng thời sử dụng thế hệ tăng cường truy xuất (RAG) để cải thiện độ chính xác của nó. Mô hình này có độ dài ngữ cảnh là 128K và hỗ trợ 23 ngôn ngữ. Cohere cho biết, nó vượt trội so với các mô hình khác trong nhóm mô hình trọng lượng mở – Gemma của Google, Llama của Meta, Ministral của Mistral – trong các nhiệm vụ bao gồm toán học và mã hóa, Cohere nói.
“Mô hình này được thiết kế dành cho các nhà phát triển và doanh nghiệp cần tối ưu hóa tốc độ, hiệu suất chi phí và tài nguyên điện toán cho các trường hợp sử dụng của họ,” Aidan Gomez, đồng sáng lập và Giám đốc điều hành Cohere viết trong một bài đăng trên blog công bố mẫu mới.
Vượt trội đối thủ về toán, mã hóa, RAG
Cohere đã tập trung chiến lược vào các doanh nghiệp và các trường hợp sử dụng riêng của họ. Công ty đã giới thiệu Command-R vào tháng 3 và người mạnh mẽ Lệnh R+ vào tháng 4 và đã thực hiện nâng cấp trong suốt cả năm để hỗ trợ tốc độ và hiệu quả. Nó giới thiệu Command R7B là mô hình “cuối cùng” trong dòng R của mình và cho biết họ sẽ phát hành trọng số mô hình cho cộng đồng nghiên cứu AI.
Cohere lưu ý rằng lĩnh vực trọng tâm quan trọng khi phát triển Command R7B là cải thiện hiệu suất về toán, lý luận, mã và dịch thuật. Công ty dường như đã thành công trong những lĩnh vực đó, với mẫu sản phẩm mới nhỏ hơn đứng đầu Bảng xếp hạng HuggingFace Open LLM so với các mẫu trọng lượng mở có kích thước tương tự bao gồm Gemma 2 9B, Ministral 8B và Llama 3.1 8B.
Hơn nữa, mô hình nhỏ nhất trong dòng R vượt trội hơn các mô hình cạnh tranh trong các lĩnh vực bao gồm tác nhân AI, sử dụng công cụ và RAG, giúp cải thiện độ chính xác bằng cách nối đất đầu ra của mô hình trong dữ liệu bên ngoài. Cohere cho biết Command R7B vượt trội trong các nhiệm vụ đàm thoại bao gồm hỗ trợ nơi làm việc công nghệ và quản lý rủi ro doanh nghiệp (ERM); sự kiện kỹ thuật; nơi làm việc truyền thông và hỗ trợ dịch vụ khách hàng; Câu hỏi thường gặp về nhân sự; và tóm tắt. Cohere cũng lưu ý rằng mô hình này “đặc biệt tốt” trong việc truy xuất và xử lý thông tin số trong môi trường tài chính.
Nhìn chung, Command R7B xếp hạng trung bình đầu tiên trong các tiêu chuẩn quan trọng bao gồm đánh giá theo hướng dẫn (IFeval); băng ghế lớn cứng (BBH); Hỏi đáp phù hợp với Google (GPQA) cấp độ sau đại học; lý luận mềm nhiều bước (MuSR); Và hiểu biết ngôn ngữ đa nhiệm lớn (MLU).
Loại bỏ các chức năng gọi không cần thiết
Command R7B có thể sử dụng các công cụ bao gồm công cụ tìm kiếm, API và cơ sở dữ liệu vectơ để mở rộng chức năng của nó. Cohere báo cáo rằng việc sử dụng công cụ của mô hình hoạt động mạnh mẽ so với các đối thủ cạnh tranh trong Bảng xếp hạng gọi hàm Berkeley, đánh giá độ chính xác của mô hình trong việc gọi hàm (kết nối với dữ liệu và hệ thống bên ngoài).
Gomez chỉ ra rằng điều này chứng tỏ tính hiệu quả của nó trong “môi trường năng động, đa dạng và thế giới thực” và loại bỏ nhu cầu về các chức năng gọi điện không cần thiết. Điều này có thể khiến nó trở thành một lựa chọn tốt để xây dựng các tác nhân AI “nhanh và có khả năng”. Ví dụ: Cohere chỉ ra rằng, khi hoạt động như một tác nhân tìm kiếm được tăng cường trên internet, Command R7B có thể chia các câu hỏi phức tạp thành các mục tiêu phụ, đồng thời hoạt động tốt với khả năng truy xuất thông tin và suy luận nâng cao.
Vì kích thước nhỏ nên Command R7B có thể được triển khai trên các CPU, GPU và MacBook cấp thấp hơn và dành cho người tiêu dùng, cho phép suy luận trên thiết bị. Mô hình này hiện có sẵn trên nền tảng Cohere và HuggingFace. Giá là 0,0375 USD trên 1 triệu mã thông báo đầu vào và 0,15 USD trên 1 triệu mã thông báo đầu ra.
Gomez viết: “Đây là sự lựa chọn lý tưởng cho các doanh nghiệp đang tìm kiếm một mô hình tiết kiệm chi phí dựa trên các tài liệu và dữ liệu nội bộ của họ”.