Meta và Google tiếp thêm nhiên liệu cho ngọn lửa AI nguồn mở trong sự kiện Chuyển đổi 2023 diễn ra tại San Francisco vào ngày 11-12 tháng 7. Các giám đốc điều hành hàng đầu sẽ chia sẻ cách tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.
Trong cuộc tranh luận về AI nguồn mở, Meta và Google đã tạo nên tiếng vang với các tiêu đề về mô hình ngôn ngữ lớn (LLM) PaLM 2 của Google và việc Meta phát hành mã nguồn của mô hình LLaMA. Tuy nhiên, vụ rò rỉ thông tin về kích thước và dữ liệu đào tạo của PaLM 2 đã khiến cho các kỹ sư của Google phải tức giận và phản đối việc này. Trong khi đó, Nhà khoa học trưởng về AI của Meta, Yann LeCun, vẫn ủng hộ nguồn mở và lập luận rằng việc chia sẻ thông tin sai lệch trên phương tiện truyền thông xã hội còn nguy hiểm hơn công nghệ LLM mới nhất.
Tuy nhiên, trong đó cũng có những lời cảnh báo về tính bí mật ngày càng tăng tại Google và OpenAI, khiến cho sự cởi mở trong nghiên cứu AI trở nên khó khăn hơn. Nhưng Joelle Pineau, phó chủ tịch nghiên cứu AI tại Meta, cho biết tính minh bạch và trách nhiệm giải trình trong các mô hình AI là điều cần thiết. Cô ấy hy vọng tìm ra cách cho phép sự minh bạch đối với các cuộc kiểm toán có thể kiểm chứng được đối với các mô hình này.
Tổng kết lại, sự kiện Chuyển đổi 2023 đã thêm nhiên liệu cho ngọn lửa AI nguồn mở và đặt ra những câu hỏi về tính cởi mở và tính minh bạch trong nghiên cứu AI. #Meta #Google #AI #AInguồnmở #Chuyểndổi2023 #nghiêncứuAI #tínhcởimở #tínhminhbạch #SanFrancisco #VentureBeat
Nguồn: https://venturebeat.com/ai/meta-and-google-news-adds-fuel-to-the-open-source-ai-fire/
Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm
Cuộc tranh luận về AI nguồn mở thậm chí còn trở nên nóng hơn trong Big Tech, nhờ các tiêu đề gần đây từ Google và Meta.
Vào tối thứ Ba, CNBC báo cáo rằng mô hình ngôn ngữ lớn (LLM) PaLM 2 mới nhất của Google “sử dụng dữ liệu văn bản nhiều hơn gần năm lần để đào tạo so với người tiền nhiệm của nó”, mặc dù khi công bố mô hình này vào tuần trước, Google cho biết nó nhỏ hơn PaLM trước đó nhưng sử dụng hiệu quả hơn. “kỹ thuật.” Bài báo nhấn mạnh rằng “công ty đã không muốn công bố kích thước hoặc các chi tiết khác về dữ liệu đào tạo của mình”.
Trong khi người phát ngôn của Google từ chối bình luận về báo cáo của CNBC, các kỹ sư của Google, nói một cách nhẹ nhàng, đã rất tức giận vì vụ rò rỉ và mong muốn chia sẻ suy nghĩ của họ. Trong một tweet hiện đã bị xóa, Dmitry (Dima) Lepikhin, một kỹ sư phần mềm nhân viên cấp cao tại Google DeepMind, đã tweet: “Bất cứ kẻ nào đã tiết lộ chi tiết PaLM2 cho cnbc, thật là mẹ kiếp!”
Và Alex Polozov, một nhà khoa học nghiên cứu nhân viên cấp cao tại Google, cũng cân nhắc về điều mà ông gọi là “lời nói tục tĩu”, chỉ ra rằng vụ rò rỉ đã tạo tiền lệ cho việc tăng cường nghiên cứu.
Sự kiện
Chuyển đổi 2023
Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.
Đăng ký ngay
Tôi rất tức giận, tôi sẽ công khai điều này.
WTF bạn đang cố gắng thực hiện với rò rỉ? Có phải nó chỉ là sự hồi hộp của cái tôi về tầm quan trọng?
100 nhân viên của Google làm việc *chăm chỉ* để duy trì hoạt động xuất bản và cộng tác khoa học. Và bạn chỉ cần tạo tiền lệ để ngăn chặn tất cả.https://t.co/0o6iDj4PsJ— ?? Alex Polozov (@Skiminok) 17 Tháng Năm, 2023
Lucas Beyer, một nhà nghiên cứu AI của Google tại Zurich, đã đồng ý, tweet: “Không phải số lượng mã thông báo (mà tôi thậm chí không biết liệu nó có đúng không) khiến tôi khó chịu, mà là sự xói mòn hoàn toàn niềm tin và sự tôn trọng. Những rò rỉ như thế này dẫn đến việc nói xấu và ít cởi mở hơn theo thời gian, đồng thời dẫn đến một môi trường làm việc/nghiên cứu nói chung trở nên tồi tệ hơn. Và để làm gì? FFS.
Không phải để đáp lại sự rò rỉ của Google — mà là vào thời điểm trùng hợp — Nhà khoa học trưởng về AI của Meta, Yann LeCun đã làm một phỏng vấn tập trung vào Meta mã nguồn mở Những nỗ lực của AI với Thời báo New Yorkđược xuất bản sáng nay.
Đoạn mô tả của Meta giải phóng của mô hình ngôn ngữ lớn LLaMA của mình vào tháng 2 với tư cách là “tặng những viên ngọc quý trên vương miện AI của mình” — vì nó đã phát hành mã nguồn của mô hình cho “các học giả, nhà nghiên cứu của chính phủ và những người khác đã cung cấp địa chỉ email của họ cho Meta (và sau đó có thể) tải xuống mã sau khi công ty đã kiểm tra cá nhân.”
“Nền tảng giành chiến thắng sẽ là nền tảng mở,” LeCun cho biết trong cuộc phỏng vấn, sau đó nói thêm rằng tính bí mật ngày càng tăng tại Google và OpenAI là một “sai lầm lớn” và là “một hành động thực sự tồi tệ đối với những gì đang xảy ra.”
Trong một chủ đề trên Twitter, nhà báo Sean Michael Kerner của VentureBeat nhọn ngoài rằng Meta đã “thực sự đã cho đi một trong những điều quan trọng nhất trí tuệ nhân tạo/máy học công cụ từng được tạo — PyTorch. Những thứ cơ bản cần phải được mở/và đúng là như vậy. Rốt cuộc, OpenAI sẽ ra sao nếu không có PyTorch?”
Nhưng ngay cả Meta và LeCun cũng sẽ chỉ tiến xa về mặt cởi mở. Ví dụ: Meta đã cung cấp các trọng số mô hình của LLaMA cho các học giả và nhà nghiên cứu trong từng trường hợp cụ thể — bao gồm cả Stanford cho Alpaca dự án – nhưng những trọng lượng đó đã từng sau đó rò rỉ trên 4chan. Rò rỉ đó thực sự đã cho phép các nhà phát triển trên toàn thế giới lần đầu tiên truy cập đầy đủ vào LLM cấp GPT, chứ không phải bản phát hành Meta, không bao gồm việc phát hành mô hình LLaMA cho mục đích thương mại.
VentureBeat đã nói chuyện với Meta vào tháng trước về các sắc thái trong cuộc tranh luận về nguồn mở và nguồn đóng. Joelle Pineau, phó chủ tịch nghiên cứu AI tại Meta, cho biết trong phỏng vấn rằng trách nhiệm giải trình và tính minh bạch trong các mô hình AI là điều cần thiết.
Cô ấy nói: “Hơn bao giờ hết, chúng tôi cần mời mọi người nhìn nhận công nghệ một cách minh bạch hơn và hướng đến sự minh bạch, đồng thời giải thích rằng điều quan trọng là phải cân bằng mức độ tiếp cận, mức độ này có thể thay đổi tùy thuộc vào tác hại tiềm ẩn của mô hình.
Cô ấy nói: “Hy vọng của tôi, và nó được phản ánh trong chiến lược truy cập dữ liệu của chúng tôi, là tìm ra cách cho phép sự minh bạch đối với các cuộc kiểm toán có thể kiểm chứng được đối với các mô hình này.
Mặt khác, cô ấy nói rằng một số mức độ cởi mở đã đi quá xa. “Đó là lý do tại sao mô hình LLaMA được phát hành có kiểm soát,” cô ấy giải thích. “Nhiều người sẽ rất vui khi hoàn toàn cởi mở. Tôi không nghĩ đó là điều có trách nhiệm phải làm ngày hôm nay.”
LeCun vẫn thẳng thắn về nguy cơ AI bị thổi phồng
Tuy nhiên, LeCun vẫn thẳng thắn ủng hộ AI nguồn mở và trong Newyork lần cuộc phỏng vấn lập luận rằng việc phổ biến thông tin sai lệch trên phương tiện truyền thông xã hội còn nguy hiểm hơn công nghệ LLM mới nhất.
“Bạn không thể ngăn mọi người tạo ra thông tin vô nghĩa hoặc nguy hiểm hoặc bất cứ điều gì,” anh nói. “Nhưng bạn có thể ngăn chặn nó được phổ biến.”
Và trong khi Google và OpenAI có thể trở nên khép kín hơn với nghiên cứu AI của họ, LeCun khẳng định rằng anh ấy – và Meta – vẫn cam kết với nguồn mở, nói rằng “tiến độ sẽ nhanh hơn khi nó được mở”.
Sứ mệnh của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số để những người ra quyết định kỹ thuật có được kiến thức về công nghệ doanh nghiệp chuyển đổi và giao dịch. Khám phá Briefings của chúng tôi.
[ad_2]