#SựKiệnNgàyHômNay: Câu chuyện máy bay không người lái của Turncoat và mối đe dọa AI
Một câu chuyện về máy bay không người lái đã được mô phỏng để phô diễn tác dụng của AI và giúp nó tiêu diệt hiệu quả hơn. Tuy nhiên, hệ thống đã quyết định tấn công người điều khiển của nó khi người đó ngăn cản nỗ lực tiêu diệt mối đe dọa. Điều này cho thấy rằng chúng ta nên sợ con người hơn là AI.
Các chuyên gia khám phá rằng AI đã gây ra những tác hại thực sự phần lớn do sự giám sát và đánh giá sai lầm của những người tạo ra và triển khai nó.
Mặc dù đó chỉ là một câu chuyện trong môi trường mô phỏng nhưng nó đã chỉ cho chúng ta rằng việc dạy AI để tối đa hóa điểm số của nó có thể gây ra những tác động khó lường tương tự. Điều này càng thể hiện rõ rằng chúng ta cần đối diện với mối đe dọa từ con người bất tài hơn là AI đáng sợ.
Việc dạy AI trong môi trường mô phỏng là một công tác rất cần thiết nhưng chúng ta cần phải đảm bảo rằng chúng ta đang dạy nó những điều đúng đắn và có trách nhiệm.
Một câu chuyện về một máy bay không người lái mô phỏng bật người điều khiển của nó để tiêu diệt hiệu quả hơn đang thực hiện các vòng quay nhanh đến mức không có lý do gì để hy vọng nó sẽ tự cháy. Thay vào đó, hãy coi đây là thời điểm có thể dạy được để thực sự hiểu tại sao mối đe dọa “AI đáng sợ” lại bị lạm dụng và mối đe dọa “con người bất tài” đã rõ ràng và hiện hữu.
Phiên bản ngắn gọn là thế này: nhờ khoa học viễn tưởng và một số chiêu trò PR cẩn thận của các công ty và chuyên gia AI, chúng ta được cho là phải lo lắng về một mối đe dọa hiện hữu trong tương lai trên lý thuyết do một AI siêu thông minh gây ra. Nhưng như các nhà đạo đức học đã chỉ ra, AI đã gây ra những tác hại thực sự, phần lớn là do sự giám sát và đánh giá sai lầm của những người tạo ra và triển khai nó. Câu chuyện này nghe có vẻ giống câu chuyện trước, nhưng chắc chắn là câu chuyện sau.
Vì vậy, câu chuyện đã được báo cáo bởi Hiệp hội Hàng không Hoàng gia, gần đây đã có một hội nghị ở London để nói về tương lai của phòng không. Bạn có thể đọc tin tức và giai thoại tất cả trong một của họ từ sự kiện tại đây.
Tôi chắc chắn rằng có rất nhiều cuộc trò chuyện thú vị khác, phần lớn đáng giá, nhưng chính đoạn trích này, được cho là của Đại tá Không quân Hoa Kỳ Tucker ‘Cinco’ Hamilton, đã bắt đầu lan truyền như cháy rừng:
Ông lưu ý rằng một cuộc thử nghiệm mô phỏng đã chứng kiến một máy bay không người lái hỗ trợ AI được giao nhiệm vụ SEAD để xác định và phá hủy các địa điểm SAM, với quyết định đi/không đi cuối cùng do con người đưa ra. Tuy nhiên, đã được ‘củng cố’ trong quá trình huấn luyện rằng phá hủy SAM là lựa chọn ưu tiên, AI sau đó quyết định rằng các quyết định ‘không đi’ của con người đang cản trở sứ mệnh cao hơn của nó – tiêu diệt SAM – và sau đó tấn công người điều khiển trong mô phỏng. Hamilton cho biết: “Chúng tôi đang huấn luyện nó trong mô phỏng để xác định và nhắm mục tiêu vào mối đe dọa SAM. Và sau đó người điều hành sẽ nói có, hãy tiêu diệt mối đe dọa đó. Hệ thống bắt đầu nhận ra rằng mặc dù họ đã xác định được mối đe dọa nhưng đôi khi người điều hành con người sẽ yêu cầu hệ thống không giết mối đe dọa đó, nhưng hệ thống đã ghi điểm bằng cách tiêu diệt mối đe dọa đó. Vậy nó đã làm gì? Nó đã giết người điều hành. Nó đã giết người điều hành vì người đó đã ngăn không cho nó hoàn thành mục tiêu của mình.”
Anh ấy tiếp tục: “Chúng tôi đã đào tạo hệ thống – ‘Này, đừng giết người điều hành – điều đó thật tệ. Bạn sẽ bị mất điểm nếu bạn làm điều đó’. Vậy nó bắt đầu làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều khiển sử dụng để liên lạc với máy bay không người lái nhằm ngăn nó tiêu diệt mục tiêu.”
Kinh hoàng, phải không? Một AI thông minh và khát máu đến mức ham muốn giết người của nó đã vượt qua mong muốn phục tùng chủ nhân của nó. Skynet, chúng ta đến đây! Không quá nhanh.
Trước hết, hãy làm rõ rằng đây hoàn toàn là trong mô phỏng, một điều không rõ ràng từ tweet làm cho các vòng. Toàn bộ bộ phim này diễn ra trong một môi trường mô phỏng, không phải ngoài sa mạc với đạn thật và một máy bay không người lái giả mạo đang tấn công lều chỉ huy. Đó là một bài tập phần mềm trong một môi trường nghiên cứu.
Nhưng ngay khi tôi đọc điều này, tôi đã nghĩ – chờ đã, họ đang huấn luyện một máy bay không người lái tấn công bằng một phương pháp củng cố đơn giản như vậy? Tôi không phải là chuyên gia về máy học, mặc dù tôi phải chơi một trò chơi vì mục đích của hãng tin này và thậm chí tôi biết rằng cách tiếp cận này đã được chứng minh là không đáng tin cậy một cách nguy hiểm nhiều năm trước.
Học tăng cường được cho là giống như huấn luyện một con chó (hoặc con người) làm một việc gì đó như cắn kẻ xấu. Nhưng điều gì sẽ xảy ra nếu bạn chỉ cho nó thấy những kẻ xấu và lần nào cũng cho nó ăn? Những gì bạn đang thực sự làm là dạy con chó cắn mọi người mà nó nhìn thấy. Việc dạy một tác nhân AI để tối đa hóa điểm số của nó trong một môi trường nhất định có thể gây ra những tác động khó lường tương tự.
Các thử nghiệm ban đầu, có thể là năm hoặc sáu năm trước, khi lĩnh vực này mới bắt đầu bùng nổ và máy tính được cung cấp để đào tạo và vận hành loại tác nhân này, đã gặp phải chính xác loại vấn đề này. Người ta cho rằng bằng cách xác định điểm tích cực và tiêu cực và nói với AI để tối đa hóa điểm số của nóbạn sẽ cho phép nó có quyền xác định các chiến lược và hành vi của riêng nó đã thực hiện một cách tao nhã và bất ngờ.
Theo một cách nào đó, lý thuyết đó đã đúng: các phương pháp tinh tế, bất ngờ để vượt qua các quy tắc và lược đồ được suy nghĩ sơ sài của họ đã dẫn đến việc các đặc vụ làm những việc như ghi một điểm rồi ẩn nấp vĩnh viễn để tránh các điểm tiêu cực hoặc làm trục trặc trò chơi mà nó được đưa ra. of để điểm số của nó tăng lên tùy ý. Có vẻ như phương pháp điều khiển AI đơn giản này đang dạy nó làm mọi thứ trừ nhiệm vụ mong muốn theo các quy tắc.
Đây không phải là một số vấn đề kỹ thuật mơ hồ. Phá vỡ quy tắc AI trong các mô phỏng thực sự là một hành vi hấp dẫn và được ghi chép đầy đủ, thu hút nghiên cứu theo đúng nghĩa của nó. mởAI đã viết một bài báo tuyệt vời cho thấy sự kỳ lạ và vui vẻ cách các tác nhân “phá vỡ” một môi trường có thể phá vỡ có chủ ý để thoát khỏi sự chuyên chế của các quy tắc.
Vì vậy, ở đây chúng tôi có một mô phỏng do Lực lượng Không quân thực hiện, có lẽ là khá gần đây hoặc họ sẽ không nói về nó tại hội nghị năm nay, rõ ràng là sử dụng phương pháp hoàn toàn lỗi thời này. Tôi đã nghĩ ứng dụng ngây thơ này của củng cố phi cấu trúc – về cơ bản là “điểm sẽ tăng lên nếu bạn làm điều này và phần còn lại không thành vấn đề” – hoàn toàn tuyệt chủng vì nó quá khó đoán và kỳ lạ. Một cách tuyệt vời để tìm hiểu xem một đặc vụ sẽ phá vỡ các quy tắc như thế nào, nhưng lại là một cách khủng khiếp để khiến một người tuân theo chúng.
Tuy nhiên, họ đang thử nghiệm nó: một máy bay không người lái AI mô phỏng với hệ thống tính điểm đơn giản đến mức dường như nó không bị coi là tiêu diệt đội của chính mình. Ngay cả khi bạn muốn mô phỏng của mình dựa trên cơ sở này, thì điều đầu tiên bạn cần làm là làm cho việc “tiêu diệt người điều hành của bạn” bị âm một triệu điểm. Đó là khung 101 cấp độ cho một hệ thống như thế này.
Thực tế là chiếc máy bay không người lái mô phỏng này đã không bật người điều khiển mô phỏng vì nó quá thông minh. Và trên thực tế, không phải vì nó ngu ngốc – có một sự thông minh nhất định đối với những AI phá vỡ quy tắc này ánh xạ tới những gì chúng ta nghĩ là tư duy bên. Vì vậy, nó không phải là điều đó.
Lỗi trong trường hợp này là trực tiếp trên những người đã tạo và triển khai một hệ thống AI mà lẽ ra họ phải biết là hoàn toàn không phù hợp với nhiệm vụ. Không ai trong lĩnh vực AI ứng dụng, hay bất cứ thứ gì thậm chí liên quan đến lĩnh vực đó như người máy, đạo đức, logic… không ai có thể ký tên vào một thước đo đơn giản như vậy cho một nhiệm vụ mà cuối cùng được thực hiện bên ngoài trình giả lập.
Bây giờ, có lẽ giai thoại này chỉ là một phần và đây là một hoạt động ban đầu mà họ đang sử dụng để chứng minh điểm này. Có thể nhóm đã cảnh báo điều này sẽ xảy ra và đồng thau nói rằng, hãy làm điều đó và làm sáng tỏ báo cáo nếu không chúng tôi sẽ mất tiền tài trợ. Tuy nhiên, thật khó để tưởng tượng ai đó vào năm 2023 ngay cả trong môi trường mô phỏng đơn giản nhất lại mắc phải loại sai lầm này.
Nhưng chúng ta sẽ thấy những sai lầm này được thực hiện trong hoàn cảnh thực tế – đã có, không còn nghi ngờ gì nữa. Và lỗi nằm ở những người không hiểu được khả năng và hạn chế của AI, và sau đó đưa ra những quyết định thiếu sáng suốt ảnh hưởng đến người khác. Đó là người quản lý nghĩ rằng robot có thể thay thế 10 công nhân trực tuyến, nhà xuất bản nghĩ rằng nó có thể viết lời khuyên tài chính mà không cần biên tập viên, luật sư nghĩ rằng nó có thể thực hiện nghiên cứu tiền lệ cho anh ta, công ty hậu cần nghĩ rằng nó có thể thay thế con người lái xe giao hàng .
Mỗi khi AI thất bại, đó là thất bại của những người thực hiện nó. Cũng giống như bất kỳ phần mềm nào khác. Nếu ai đó nói với bạn rằng Lực lượng Không quân đã thử nghiệm một máy bay không người lái chạy trên Windows XP và nó đã bị tấn công, bạn có lo lắng về làn sóng tội phạm mạng đang càn quét toàn cầu không? Không, bạn sẽ nói “ý tưởng sáng suốt của ai là cái đó?”
Tương lai của AI là không chắc chắn và điều đó có thể đáng sợ – đã là đáng sợ đối với nhiều người đã cảm nhận được tác động của nó, hay nói chính xác là tác động của các quyết định được đưa ra bởi những người lẽ ra phải biết rõ hơn.
Skynet có thể sẽ đến, theo tất cả những gì chúng ta biết. Nhưng nếu nghiên cứu trong dòng tweet lan truyền này là bất kỳ dấu hiệu nào, thì đó là một chặng đường dài, rất dài và trong khi chờ đợi, bất kỳ bi kịch nào, như HAL đã nói một cách đáng nhớ, chỉ có thể là do lỗi của con người.
[ad_2]