Gary Marcus rạng rỡ khi hỗ trợ chỉnh sửa trí tuệ nhân tạo cho chính quyền Hoa Kỳ

#GaryMarcus #AI #Washington #OpenAI #IBM #Quốc_hội_Hoa_Kỳ

Gary Marcus, nhà sáng lập và tác giả sách về trí thông minh nhân tạo đã tham gia phiên điều trần trước Ủy ban Tư pháp Thượng viện Hoa Kỳ để giúp điều chỉnh công việc của AI. Cùng với Giám đốc điều hành OpenAI Sam Altman và Giám đốc ủy thác quyền riêng tư của IBM Christina Montgomery, Marcus đã thảo luận với các thượng nghị sĩ trong hơn ba giờ.

Trong khi Marcus được biết đến như một chuyên gia trong lĩnh vực này từ lâu, gần đây anh ta đã trở thành ngôi sao thịnh hành nhờ bản tin của mình và các podcast liên quan đến sự gia tăng không kiểm soát của AI.

Trong cuộc phỏng vấn mới đây, Marcus cho rằng AI nguy hiểm và có thể đe dọa nền dân chủ. Ông cũng nhấn mạnh rằng việc sử dụng các công cụ AI đòi hỏi các giấy phép đối với những thứ sẽ được triển khai ở quy mô lớn, nhưng cũng phải hạn chế những rủi ro bảo mật.

Về mô hình ngôn ngữ của Meta, Marcus cho rằng nó cần có quy trình quyết định cụ thể hơn trước khi ra thế giới.

Phiên điều trần này được coi là lịch sử và được quan tâm đặc biệt vì sự gia tăng không kiểm soát của AI vẫn là một vấn đề đáng lo ngại.

Nguồn: https://techcrunch.com/2023/05/18/psst-gary-marcus-is-happy-to-help-regulate-ai-on-behalf-of-the-u-s-government/

Vào thứ Ba tuần này, nhà thần kinh học, người sáng lập và tác giả Gary Marcus đã ngồi giữa Giám đốc điều hành OpenAI Sam Altman và Christina Montgomery, giám đốc ủy thác quyền riêng tư của IBM, vì cả ba đã làm chứng trước Ủy ban Tư pháp Thượng viện trong hơn ba giờ. Các thượng nghị sĩ chủ yếu tập trung vào Altman vì ông ấy đang điều hành một trong những công ty quyền lực nhất hành tinh vào thời điểm hiện tại và vì Altman đã nhiều lần yêu cầu họ giúp điều chỉnh công việc của ông ấy. (Hầu hết các CEO cầu xin Quốc hội hãy để ngành của họ yên.)

Mặc dù Marcus đã được biết đến trong giới học thuật một thời gian, nhưng ngôi sao của anh ấy đã nổi lên gần đây nhờ bản tin của anh ấy (“Con đường đến với AI mà chúng ta có thể tin tưởng“), một podcast (“Con người so với Máy móc“), và sự lo lắng có thể hiểu được của anh ấy về sự gia tăng không kiểm soát của AI. Chẳng hạn, ngoài phiên điều trần tuần này, tháng này anh ấy đã xuất hiện trên kênh truyền hình Bloomberg và được đăng trên tờ New York Times tạp chí chủ nhậtcó dây trong số những nơi khác.

Bởi vì phiên điều trần tuần này dường như thực sự mang tính lịch sử theo một cách nào đó — Thượng nghị sĩ Josh Hawley đã mô tả AI là “một trong những đổi mới công nghệ nhất trong lịch sử loài người,” trong khi Thượng nghị sĩ John Kennedy bị Altman quyến rũ đến mức ông đã yêu cầu Altman chọn cơ quan quản lý của riêng mình — chúng tôi muốn cũng nói chuyện với Marcus để thảo luận về trải nghiệm và xem anh ấy biết gì về những gì xảy ra tiếp theo.

Bạn vẫn còn ở Washington chứ?

Tôi vẫn đang ở Washington. Tôi đang gặp gỡ các nhà lập pháp và nhân viên của họ cùng nhiều người thú vị khác và cố gắng xem liệu chúng ta có thể biến những điều mà tôi đã nói thành hiện thực hay không.

Bạn đã dạy ở NYU. Bạn đã đồng sáng lập một vài công ty AI, bao gồm một với người máy nổi tiếng Rodney Brooks. Tôi đã phỏng vấn Brooks trên sân khấu vào năm 2017 và khi đó anh ấy nói rằng anh ấy không nghĩ rằng Elon Musk thực sự hiểu về AI và anh ấy nghĩ rằng xạ hương đã sai rằng AI là một mối đe dọa hiện hữu.

Tôi nghĩ Rod và tôi chia sẻ sự hoài nghi về việc liệu AI hiện tại có giống như trí thông minh nhân tạo nói chung hay không. Có một số vấn đề bạn phải tháo rời. Một là: chúng ta có gần với AGI không và hai là AI hiện tại chúng ta có nguy hiểm đến mức nào? Tôi không nghĩ AI hiện tại mà chúng ta có là một mối đe dọa hiện hữu nhưng nó nguy hiểm. Theo nhiều cách, tôi nghĩ đó là mối đe dọa đối với nền dân chủ. Đó không phải là mối đe dọa cho nhân loại. Nó sẽ không tiêu diệt tất cả loài người. Nhưng đó là một rủi ro khá nghiêm trọng.

Cách đây không lâu, bạn đang tranh luận Yann LeCun, trưởng khoa học AI của Meta. tôi không chắc chắn những gì vạt áo đó là về – tầm quan trọng thực sự của mạng lưới thần kinh học sâu?

Vì vậy, LeCun và tôi đã thực sự tranh luận nhiều điều về nhiều năm. Chúng tôi đã có một cuộc tranh luận công khai mà nhà triết học David Chalmers đã kiểm duyệt vào năm 2017. Tôi đã cố gắng để (LeCun) có một cuộc tranh luận thực sự khác kể từ đó và anh ấy đã không làm điều đó. Anh ấy thích tweet lại tôi trên Twitter và những thứ tương tự, điều mà tôi không nghĩ là cách trò chuyện người lớn nhất, nhưng vì anh ấy là một nhân vật quan trọng nên tôi cũng trả lời.

Một điều mà tôi nghĩ rằng chúng tôi không đồng ý (hiện tại) là, LeCun nghĩ rằng việc sử dụng những (mô hình ngôn ngữ lớn) này là tốt và không có hại gì ở đây. Tôi nghĩ rằng anh ấy cực kỳ sai lầm về điều đó. Có những mối đe dọa tiềm ẩn đối với nền dân chủ, từ thông tin sai lệch do những kẻ xấu cố tình tạo ra, từ thông tin sai lệch tình cờ – như giáo sư luật bị buộc tội quấy rối tình dục mặc dù ông ta không phạm tội – (đến khả năng) định hình một cách tinh vi mọi người niềm tin chính trị dựa trên dữ liệu đào tạo mà công chúng thậm chí không biết gì về nó. Nó giống như mạng xã hội, nhưng thậm chí còn quỷ quyệt hơn. Bạn cũng có thể sử dụng những công cụ này để thao túng người khác và có thể lừa họ vào bất cứ thứ gì bạn muốn. Bạn có thể mở rộng quy mô chúng một cách ồ ạt. Chắc chắn có rủi ro ở đây.

Bạn đã nói điều gì đó thú vị về Sam Altman vào thứ Ba, nói với các thượng nghị sĩ rằng anh ấy đã không nói cho họ biết nỗi sợ hãi tồi tệ nhất của anh ấy là gì, điều mà bạn gọi là “Đức” và chuyển hướng họ đến với anh ấy. Điều mà anh ấy vẫn chưa nói là bất cứ điều gì liên quan đến vũ khí tự trị, điều mà tôi đã nói chuyện với anh ấy vài năm trước như một mối quan tâm hàng đầu. Tôi nghĩ thật thú vị khi vũ khí không xuất hiện.

Chúng tôi đã đề cập đến rất nhiều lĩnh vực, nhưng có rất nhiều thứ chúng tôi chưa làm được, bao gồm cả việc thực thi, điều thực sự quan trọng, an ninh quốc gia và vũ khí tự trị và những thứ tương tự. Sẽ có một số chi tiết của (những).

Có bất kỳ cuộc nói chuyện nào về nguồn mở so với các hệ thống đóng không?

Nó hầu như không xuất hiện. Đó rõ ràng là một câu hỏi thực sự phức tạp và thú vị. Nó thực sự không rõ ràng những gì là câu trả lời đúng. Bạn muốn mọi người làm khoa học độc lập. Có thể bạn muốn có một số loại giấy phép đối với những thứ sẽ được triển khai ở quy mô rất lớn, nhưng chúng tiềm ẩn những rủi ro đặc biệt, bao gồm cả rủi ro bảo mật. Không rõ ràng rằng chúng tôi muốn mọi kẻ xấu có quyền truy cập vào các công cụ mạnh tùy ý. Vì vậy, có những lập luận ủng hộ và có những lập luận phản đối, và có lẽ câu trả lời đúng sẽ bao gồm việc cho phép một mức độ hợp lý nguồn mở nhưng cũng có một số hạn chế về những gì có thể được thực hiện và cách triển khai nó.

Bất kỳ suy nghĩ cụ thể nào về chiến lược để mô hình ngôn ngữ của Meta bước ra thế giới để mọi người mày mò với?

Thành thật mà nói, tôi không nghĩ rằng thật tuyệt khi (công nghệ AI của Meta) LLaMA xuất hiện. Tôi nghĩ đó là một chút bất cẩn. Và, bạn biết đấy, đó thực sự là một trong những vị thần ra khỏi chai. Không có cơ sở hạ tầng pháp lý tại chỗ; họ không hỏi ý kiến ​​bất kỳ ai về những gì họ đang làm, theo như tôi không biết. Có thể họ đã làm, nhưng quy trình quyết định với điều đó hoặc, chẳng hạn như Bing, về cơ bản chỉ là: một công ty quyết định chúng tôi sẽ làm điều này.

Nhưng một số điều mà các công ty quyết định có thể gây hại, cho dù là trong tương lai gần hay về lâu dài. Vì vậy, tôi nghĩ rằng các chính phủ và các nhà khoa học nên ngày càng có một số vai trò trong việc quyết định những gì sẽ xảy ra (thông qua một loại) FDA cho AI, nếu bạn muốn triển khai rộng rãi, trước tiên bạn hãy thực hiện thử nghiệm. Bạn nói về lợi ích chi phí. Bạn làm một thử nghiệm khác. Và cuối cùng, nếu chúng tôi tự tin rằng lợi ích lớn hơn rủi ro, (bạn thực hiện) phát hành trên quy mô lớn. Nhưng ngay bây giờ, bất kỳ công ty nào vào bất kỳ lúc nào cũng có thể quyết định triển khai thứ gì đó cho 100 triệu khách hàng và thực hiện điều đó mà không cần bất kỳ sự giám sát nào của chính phủ hoặc khoa học. Bạn phải có một số hệ thống mà một số cơ quan công bằng có thể tham gia.

Những nhà chức trách vô tư này đến từ đâu? Không phải tất cả những người biết bất cứ điều gì về cách thức hoạt động của những thứ này đều đã làm việc cho một công ty rồi sao?

Tôi không. (Nhà khoa học máy tính người Canada) Yoshua Bengio thì không. Có rất nhiều nhà khoa học không làm việc cho những công ty này. Đó là một lo lắng thực sự, làm thế nào để có đủ những kiểm toán viên đó và làm thế nào để khuyến khích họ làm điều đó. Nhưng có 100.000 nhà khoa học máy tính với một số khía cạnh chuyên môn ở đây. Không phải tất cả họ đều làm việc cho Google hoặc Microsoft theo hợp đồng.

Bạn có muốn đóng một vai trò trong cơ quan AI này không?

Tôi quan tâm, tôi cảm thấy rằng bất cứ điều gì chúng tôi xây dựng nên mang tính toàn cầu và trung lập, có lẽ là phi lợi nhuận, và tôi nghĩ rằng tôi có một tiếng nói tốt, trung lập ở đây mà tôi muốn chia sẻ và cố gắng đưa chúng ta đến một nơi tốt đẹp.

Cảm giác như thế nào khi ngồi trước Ủy ban Tư pháp Thượng viện? Và bạn có nghĩ rằng bạn sẽ được mời trở lại?

Tôi sẽ không sốc nếu tôi được mời trở lại nhưng tôi không biết. Tôi thực sự vô cùng xúc động bởi điều đó và tôi thực sự vô cùng xúc động khi được ở trong căn phòng đó. Tôi cho rằng nó nhỏ hơn một chút so với trên tivi. Nhưng có cảm giác như mọi người ở đó để cố gắng làm những điều tốt nhất có thể cho nước Mỹ – cho nhân loại. Mọi người đều biết tầm quan trọng của thời điểm này và theo tất cả các tài khoản, các thượng nghị sĩ đã mang đến trò chơi hay nhất của họ. Chúng tôi biết rằng chúng tôi ở đó là có lý do và chúng tôi đã cố gắng hết sức.


Leave a Reply

Your email address will not be published. Required fields are marked *