Nếu bạn không lắng nghe lời khuyên từ một con chim, đừng nghe ChatGPT: Đặt công cụ vào thử thách

Nếu bạn không nghe theo lời khuyên từ một con vẹt, hãy không lắng nghe ChatGPT: Đặt công cụ dưới sự thử thách. Hãy đến thư viện theo yêu cầu của chúng tôi để xem các buổi từ VB Transform 2023. Đăng ký tại đây! ChatGPT đã gây ấn tượng mạnh trong cộng đồng công nghệ kể từ khi OpenAI tiết lộ phiên bản beta của chatbot tiên tiến này. OpenAI cũng đã phát hành một ứng dụng ChatGPT miễn phí cho iPhone và iPad, đưa công cụ trực tiếp vào tay người dùng. Chatbot và các công cụ trí tuệ nhân tạo sinh sản khác đang tràn ngập cảnh công nghệ đã khiến nhiều người sử dụng kinh ngạc và khiếp sợ vì các phản hồi giống con người của chúng và thời gian trả lời gần như tức thì. Mọi người không nhận ra rằng dù chatbot này cung cấp những câu trả lời nghe “được viết bởi con người,” nhưng điều thiếu sót của nó là không hiểu căn bản. ChatGPT được đào tạo từ một lượng dữ liệu internet phong phú – hàng tỷ trang văn bản – và rút ra câu trả lời từ thông tin đó mà không cần thêm bất kỳ dữ liệu nào. Dữ liệu mà ChatGPT được đào tạo từ, được gọi là Common Crawl, là càng tốt khi nói đến dữ liệu đào tạo. Nhưng chúng ta không bao giờ biết chính xác tại sao hoặc như thế nào mà bot đưa ra một số câu trả lời nhất định. Và nếu nó tạo ra thông tin không chính xác, nó sẽ nói một cách tự tin; nó không biết nó sai. Ngay cả với các lời gợi ý và tiên đề rõ ràng và dài dòng, nó vẫn có thể đưa ra cả thông tin đúng và sai. Hậu quả đắt đỏ của việc nghe theo lời khuyên mù quáng từ ChatGPT Chúng ta có thể so sánh trí tuệ nhân tạo với một con vẹt giả dạng ngôn ngữ của con người. Trong trường hợp này, việc bot không có suy nghĩ và không hiểu biết đặc thù là điều tốt, nhưng quá nhiều người nghe và tuân theo lời khuyên của nó mà không suy nghĩ. Khi một con vẹt nói, bạn biết rằng nó chỉ lặp lại những từ mà nó nghe thấy, vì vậy bạn sẽ không chú ý quá nhiều vào đó. Người dùng cũng phải đối xử với các mô hình ngôn ngữ tự nhiên với cùng một lượng đồng cảm. Hậu quả của việc mù quáng tuân theo “lời khuyên” từ bất kỳ chatbot nào có thể là đắt đỏ. Một nghiên cứu gần đây của các nhà nghiên cứu tại Đại học Stanford, “Thay đổi hành vi của ChatGPT theo thời gian” phát hiện ra rằng độ chính xác của bot trong việc giải một bài toán toán học đơn giản là 98% vào tháng 3 năm 2023, nhưng giảm đáng kể chỉ còn 2% vào tháng 6 năm 2023. Điều này chỉ ra tính không đáng tin cậy của nó. Hãy nhớ rằng nghiên cứu này áp dụng cho một bài toán toán học cơ bản – hãy tưởng tượng nếu bài toán hoặc chủ đề phức tạp hơn và người dùng không dễ dàng xác nhận nó sai. Thử nghĩ về việc dự đoán liệu một nhóm tia X có ung thư hay không? Hay việc một máy dự đoán giá trị của bạn đối với xã hội? Nếu một người đặt câu hỏi cho ChatGPT, khả năng là họ không phải là chuyên gia trong lĩnh vực đó, và do đó không biết sự khác biệt giữa thông tin chính xác và không chính xác. Người dùng có thể không đầu tư thời gian vào việc kiểm tra đáng tin cậy của câu trả lời và có thể đưa ra quyết định dựa trên dữ liệu không chính xác. Nêu ý kiến của ChatGPT về sự vững mạnh trong lĩnh vực an ninh mạng Tôi đã hỏi ChatGPT về các giải pháp đề xuất và các bước chiến lược để xây dựng sự vững mạnh trong lĩnh vực an ninh mạng trước các hành vi xấu – một chủ đề mà tôi đã rất quen thuộc. Nó cung cấp một số lời khuyên hữu ích và một số lời khuyên không tốt. Dựa trên nhiều năm kinh nghiệm của tôi trong lĩnh vực an ninh mạng, điều này dễ nhận thấy rằng các mẹo khá đáng tò mò, nhưng người không phải là chuyên gia về chủ đề có lẽ sẽ không hiểu được những phản hồi nào có ích và nào có hại. Mỗi mẹo đề cập đến sự cần thiết của yếu tố con người khi đánh giá lời khuyên từ bot. Tôi đã hỏi ChatGPT: “Đào tạo nhân viên của bạn: Nhân viên của bạn có thể là hàng rào phòng thủ đầu tiên chống lại hành vi xấu. Quan trọng là đào tạo họ về cách bảo mật dữ liệu và giáo dục họ về những mối đe dọa tiềm ẩn.” Ý kiến của tôi: Cần xem xét các nhân tố như mức độ kinh nghiệm và lĩnh vực chuyên môn của mỗi người, vì việc biết khán giả sẽ giúp xác định phương pháp đào tạo phù hợp. Tương tự, đào tạo này phải dựa trên nhu cầu và mục tiêu an ninh mạng cụ thể của tổ chức. Đào tạo có giá trị nhất là thực tế và căn cứ trên những việc nhân viên làm hàng ngày, chẳng hạn như sử dụng mật khẩu mạnh và duy nhất để bảo vệ tài khoản của họ. Như một bot, ChatGPT không có ngữ cảnh này trừ khi bạn đưa ra. Và cho dù có những lời gợi ý quá dài và cụ thể, nó vẫn có thể cung cấp lời khuyên không tốt. Kết luận: Đây là một mẹo tốt, nhưng nó thiếu những chi tiết quan trọng về cách đào tạo và giáo dục nhân viên. ChatGPT: “Hợp tác với các công ty và tổ chức khác: Hợp tác là chìa khóa để xây dựng sự vững mạnh chống lại hành vi xấu. Bằng cách làm việc cùng nhau với các công ty và tổ chức khác, bạn có thể chia sẻ những phương pháp tốt nhất và thông tin về các mối đe dọa tiềm năng.” Ý kiến của tôi: Đây là một lời khuyên tốt khi được xem trong ngữ cảnh, đặc biệt là khi các tổ chức công và tư cùng nhau học hỏi và áp d

Nguồn: https://venturebeat.com/ai/if-you-wouldnt-take-advice-from-a-parrot-dont-listen-to-chatgpt-putting-the-tool-to-the-test/

Head over to our on-demand library to view sessions from VB Transform 2023. Register Here


ChatGPT has taken the world by storm since OpenAI revealed the beta version of its advanced chatbot. OpenAI also released a free ChatGPT app for iPhones and iPads, putting the tool directly in consumers’ hands. The chatbot and other generative AI tools flooding the tech scene have stunned and frightened many users because of their human-like responses and nearly instant replies to questions.  

People fail to realize that although these chatbots provide answers that sound “human,” what they lack is fundamental understanding. ChatGPT was trained on a plethora of internet data — billions of pages of text — and draws its responses from that information alone.

The data ChatGPT is trained from, called the Common Crawl, is about as good as it gets when it comes to training data. Yet we never actually know why or how the bot comes to certain answers. And if it’s generating inaccurate information, it will say so confidently; it doesn’t know it’s wrong. Even with deliberate and verbose prompts and premises, it can output both correct and incorrect information. 

The costly consequences of blindly following ChatGPT’s advice

We can compare gen AI to a parrot that mimics human language. While it is good that this tool doesn’t have unique thoughts or understanding, too many people mindlessly listen to and follow its advice. When a parrot speaks, you know it’s repeating words it overheard, so you take it with a grain of salt. Users must treat natural language models with the same dose of skepticism. The consequences of blindly following “advice” from any chatbot could be costly. 

Event

VB Transform 2023 On-Demand

Did you miss a session from VB Transform 2023? Register to access the on-demand library for all of our featured sessions.

 


Register Now

A recent study by researchers at Stanford University, “How Is ChatGPT’s Behavior Changing Over Time?” found that the bot’s accuracy in solving a simple math problem was 98% in March 2023 but drastically dropped to just 2% in June 2023. This underscores its unreliability. Keep in mind, this research was on a basic math problem — imagine if the math or topic is more complex and a user can’t easily validate that it’s wrong.

  • What if it was code and had critical bugs? 
  • What about predictions of whether a group of X-rays have cancer?
  • What about a machine predicting your value to society?

If a person is asking ChatGPT a question, chances are they are not an expert in the topic, and therefore wouldn’t know the difference between correct and incorrect information. Users might not invest time in fact-checking the answer and might make decisions based on incorrect data.

Picking ChatGPT’s ‘brain’ about cybersecurity resilience

I asked ChatGPT for proposed solutions and tactical steps for building cybersecurity resilience against bad actors — a topic with which I’m deeply familiar. It provided some helpful advice and some bad advice. Based on my years of experience in cybersecurity, it was immediately obvious to me that the tips were questionable, but someone who is not a subject matter expert likely wouldn’t understand which responses were helpful versus harmful. Each of the tips underscored the need for the human element when assessing advice from a bot.   

ChatGPT: “Train your staff: Your staff can be your first line of defense against bad actors. It’s important to train them in best practices for data security and to educate them about potential threats.” 

  • My take: Considerations like level of experience and areas of expertise are critical to keep in mind, as knowing the audience informs the approach to education. Likewise, the training should be rooted in an organization’s specific cybersecurity needs and goals. The most valuable training is practical and grounded in things employees do every day, such as using strong and unique passwords to protect their accounts. As a bot, ChatGPT doesn’t have this context unless you, the asker, provide it. And even with overly verbose and specific prompts, it can still share bad advice.

The verdict: This is a good tip, but it lacks important details about how to train and educate employees. 

ChatGPT: “Collaborate with other companies and organizations: Collaboration is key to building resilience against bad actors. By working together with other companies and organizations, you can share best practices and information about potential threats.

  • My take: This is good advice when taken in context, specifically when public and private sector organizations collaborate to learn from one another and adopt best practices. However, ChatGPT did not provide any such context. Companies coming together after one has been the victim of an attack and discussing attack details or ransomware payouts, for example, could be incredibly harmful. In the event of a breach, the primary focus should not be on collaboration but rather on triage, response, forensic analysis and work with law enforcement.

The verdict: You need the human element to weigh information effectively from natural language processing (NLP) models. 

ChatGPT: “Implement strong security measures: One of the most important steps to building resilience against bad actors is to implement strong security measures for your AI systems. This includes things like robust authentication mechanisms, secure data storage, and encryption of sensitive data.” 

  • My take: While this is good high-level advice (although common sense), “strong security measures” differ depending on the organization’s security maturity journey. For example, a 15-person startup warrants different security measures than a global Fortune 100 bank. And while the AI might give better advice with better prompts, operators aren’t trained on what questions to ask or what caveats to provide. For example, if you said the tips were for a small business with no security budget, you will undoubtedly get a very different response.  

ChatGPT: “Monitor and analyze data: By monitoring and analyzing data, you can identify patterns and trends that may indicate a potential threat. This can help you take action before the threat becomes serious.” 

  • My take: Tech and security teams use AI for behavioral baselining, which can provide a robust and helpful tool for defenders. AI finds atypical things to look at; however, it should not make determinations. For example, say an organization has had a server performing one function daily for the past six months, and suddenly, it’s downloading copious amounts of data. AI could flag that anomaly as a threat. However, the human element is still critical for the analysis — that is, to see if the issue was an anomaly or something routine like a flurry of software updates on ‘Patch Tuesday.’ The human element is needed to determine if anomalous behavior is actually malicious. 

Advice only as good (and fresh) as training data

Like any learning model, ChatGPT gets its “knowledge” from internet data. Skewed or incomplete training data impacts the information it shares, which can cause these tools to produce unexpected or distorted results. What’s more, the advice given from AI is as old as its training data. In the case of ChatGPT, anything that relies on information after 2021 is not considered. This is a massive consideration for an industry such as the field of cybersecurity, which is continually evolving and incredibly dynamic. 

For example, Google recently released the top-level domain .zip to the public, allowing users to register .zip domains. But cybercriminals are already using .zip domains in phishing campaigns. Now, users need new strategies to identify and avoid these types of phishing attempts.

But since this is so new, to be effective in identifying these attempts, an AI tool would need to be trained on additional data above the Common Crawl. Building a new data set like the one we have is nearly impossible because of how much generated text is out there, and we know that using a machine to teach the machine is a recipe for disaster. It amplifies any biases in the data and re-enforces the incorrect items. 

Not only should people be wary of following advice from ChatGPT, but the industry must evolve to fight how cybercriminals use it. Bad actors are already creating more believable phishing emails and scams, and that’s just the tip of the iceberg. Tech behemoths must work together to ensure ethical users are cautious, responsible and stay in the lead in the AI arms race. 

Zane Bond is a cybersecurity expert and the head of product at Keeper Security.

DataDecisionMakers

Welcome to the VentureBeat community!

DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.

If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.

You might even consider contributing an article of your own!

Read More From DataDecisionMakers


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *