#Sựkiệnngàyhômqua: 10 cách mà ChatGPT và generative AI có thể tăng cường zero trust
Hội tụ các nhà lãnh đạo tại San Francisco vào ngày 11-12 tháng 7, để nghe các nhà lãnh đạo tích hợp và tối ưu hóa đầu tư AI để đạt được thành công. Tìm hiểu thêm về cách ChatGPT có thể cải tiến an ninh mạng và zero trust bắt đầu với mục tiêu học hỏi từ mỗi cố gắng đột nhập – và trở nên mạnh mẽ hơn từ đó. Generative AI có thể cung cấp giá trị lớn nhất trong thời gian ngắn nhất khi chúng ta xem nó như một động cơ học tập liên tục tìm các mối tương quan, quan hệ và nhân tố gây nguy cơ trong dữ liệu đe dọa – và không bao giờ quên.
ChatGPT và generative AI có thể được sử dụng để tạo ra “bộ nhớ cơ bắp” hoặc phản xạ ngay lập tức, trong đội ngũ an ninh mạng để ngăn chặn các cuộc đột nhập.
CEO của các nhà cung cấp an ninh mạng được phỏng vấn tại RSAC 2023 tuần trước cho biết khách hàng doanh nghiệp của họ nhận ra giá trị của ChatGPT để cải tiến an ninh mạng, nhưng cũng thể hiện nỗi lo về nguy cơ thông tin bí mật và tài sản trí tuệ (IP) bị phát tán một cách vô tình. Hội đồng An ninh đám mây phát hành Báo cáo Hướng dẫn ChatGPT đầu tiên của mình trong buổi hội nghị kêu gọi ngành công nghiệp cải tiến hợp tác lộ trình AI. Connie Stack, CEO của NextDLP, cho biết công ty của cô đã khảo sát việc sử dụng ChatGPT bởi khách hàng của Next và phát hiện ra 97% tổ chức lớn đã nhìn thấy nhân viên của họ sử dụng công cụ này. Một trong mười điểm cuối trên nền tảng Reveal của Next đã truy cập ChatGPT. Trong một cuộc phỏng vấn tại RSAC 2023, Stack cho biết rằng “mức độ sử dụng ChatGPT này là một điểm đáng quan ngại đối với một số khách hàng của chúng tôi khi họ đánh giá vector mới này cho mất mát dữ liệu. Một số khách hàng của Next đã chặn sử dụng công cụ này hoàn toàn, bao gồm một công ty chăm sóc sức khoẻ không thể chịu đựng bất kỳ mức độ rủi ro liên quan đến tiết lộ IP và bí mật thương mại cho một mô hình ngôn ngữ lớn công cộng generative. Các công ty khác có tâm huyết với các lợi ích tiềm năng và đang tiếp cận cẩn thận với việc sử dụng nó để hỗ trợ việc săn đuổi mất dữ liệu “nguy hiểm” và hỗ trợ việc tạo nội dung liên quan đến an ninh.”
Sự kiện Transform 2023
Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các nhà lãnh đạo hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa đầu tư AI để đạt được thành công và tránh các rủi ro phổ biến.
Đăng ký ngay
Xây dựng khả năng nhớ mới trong an ninh mạng
Tiềm năng của generative AI để tăng cường hiệu quả học tập của các chuyên gia phân tích đe dọa, các thợ săn đe dọa kinh nghiệm và nhân viên trung tâm hoạt động an ninh (SOC) là động lực hấp dẫn cho các nhà cung cấp an ninh mạng để áp dụng các công cụ như ChatGPT. Học tập liên tục cần được đi sâu vào các phòng thủ đe dọa của doanh nghiệp để họ có thể phản xạ bằng cách dựa vào “bộ nhớ cơ bắp” để thích nghi, phản ứng và ngăn chặn một cuộc đột nhập trước khi nó bắt đầu.
Trong một cuộc phỏng vấn gần đây, Tổng giám đốc CrowdStrike, Michael Sentonas, nói với VentureBeat: “Khái niệm cốt lõi của những gì CrowdStrike đang làm là hiệu quả hóa bất kỳ cuộc tấn công nào mà kẻ tấn công sử dụng bất kỳ vũ khí nào. Khái niệm crowd trong CrowdStrike là đảm bảo nếu ai đó tấn công tôi, kỹ thuật đó sẽ mãi mãi là một phần của nghiên cứu của chúng tôi. Vì vậy nếu họ cố gắng sử dụng cùng một cuộc tấn công đó với bạn, chúng tôi đã nhìn thấy nó, chúng tôi đã làm điều đó “Anh tiếp tục:” ChatGPT và những loại LLM như vậy cho phép bạn điều này: “Hãy cho tôi thấy kẻ thù đang tấn công chăm sóc sức khoẻ. Hãy cho tôi thấy kẻ thù đang tấn công bệnh viện. Hãy cho tôi thấy các kỹ thuật mà họ đang sử dụng. Các kỹ thuật đó đã được sử dụng trong mạng của tôi chưa? Hãy cho tôi danh sách máy mà các kỹ thuật này đã được sử dụng.” Và sau đó, bạn có thể tiếp tục quá trình đó. Bạn không cần phải là một chuyên gia, nhưng việc sử dụng công nghệ đó có thể giảm ngưỡng khó vào để trở thành một nhà săn đe dọa khác.
Chủ đề được phát biểu nhiều nhất tại RSAC 2023 là các sản phẩm và tích hợp ChatGPT được thông báo gần đây. Trong số 20 nhà cung cấp thông báo sản phẩm và tích hợp mới, các công ty Airgap Networks của Mỹ, Google Security AI Workbench, Microsoft Security Copilot (ra mắt trước buổi triển lãm), Recorded Future, Security Scorecard và SentinelOne được đánh giá cao nhất. Các công ty được đào tạo trước trên tập dữ liệu với quy mô lớn được xem là những công ty đáng tin cậy nhất trên sàn triển lãm. Sự chính xác của họ đã cho thấy tại sao quan trọng để huấn luyện một mô hình với dữ liệu chính xác. Tường lửa Zero Trust (ZTFW) với ThreatGPT của Airgap đáng chú ý. Nó đã được thiết kế để bổ sung hạ tầng tường lửa ranh giới hiện có bằng cách thêm một lớp giám sát và truy cập chuyên dụng vào lõi mạng. “Với khám phá tài sản chính xác, microsegmentation không yêu cầu đại diện và truy cập an toàn, Airgap cung cấp một kho tài nguyên thông minh để chống lại các mối đe dọa tiến triển”, CEO của Airgap Ritesh Agrawal nói. “Các khách hàng cần ngay bây giờ là một cách dễ dàng để khai thác sức mạnh đó mà không cần lập trình. Và đó là điều đẹp của ThreatGPT – sự
Nguồn: https://venturebeat.com/security/10-ways-chatgpt-and-generative-ai-can-strengthen-zero-trust/
Join top executives in San Francisco on July 11-12, to hear how leaders are integrating and optimizing AI investments for success. Learn More
ChatGPT’s potential to improve cybersecurity and zero trust needs to start with the goal of learning from every breach attempt — and becoming stronger from it. Generative AI can deliver the greatest value in the shortest time when we look at it as a continuous learning engine that finds correlations, relationships and causal factors in threat data — and that never forgets. ChatGPT and generative AI can be used to create “muscle memory,” or immediate reflex, in cybersecurity teams to stop breaches.
What cybersecurity CEOs are hearing from their customers
CEOs of cybersecurity providers interviewed at RSAC 2023 last week told VentureBeat their enterprise customers recognize ChatGPT’s value for improving cybersecurity, but also express concern about the risk of confidential data and intellectual property (IP) being accidentally compromised. The Cloud Security Alliance released its first-ever ChatGPT Guidance Paper during the conference calling on the industry to improve AI roadmap collaboration.
Connie Stack, CEO of NextDLP, told VentureBeat her company had surveyed usage of ChatGPT by Next’s customers and found 97% of larger organizations have seen their employees use the tool. One in 10 endpoints across Next’s Reveal platform have accessed ChatGPT.
In an interview at RSAC 2023, Stack told VentureBeat that “this level of ChatGPT usage is a point of concern for some of our customers as they evaluate this new vector for data loss. Some Next customers have outright blocked its usage, including a healthcare company that could not tolerate any level of risk related to disclosing IP and trade secrets to a public-facing generative large language model. Others are open-minded about the potential benefits, and are proceeding cautiously with its use to support things like enhanced data loss ‘threat hunting’ and supporting security-related content creation.”
Event
Transform 2023
Join us in San Francisco on July 11-12, where top executives will share how they have integrated and optimized AI investments for success and avoided common pitfalls.
Building new cybersecurity muscle memory
The potential for generative AI to increase the learning efficacy of threat analysts, experienced threat hunters and security operations center (SOC) staff is a compelling motivation for cybersecurity providers to adopt tools like ChatGPT. Ongoing learning needs to be so ingrained into enterprises’ threat defenses that they can react by reflex, relying on “muscle memory” to adapt, react and kill a breach attempt before it starts.
In a recent interview, Michael Sentonas, president of CrowdStrike, told VentureBeat: “The core concept of what CrowdStrike is there to do is to effectively visualize any attack that the adversary uses regardless of what that technique is. The concept of the crowd in CrowdStrike is to ensure that if someone attacks me, that technique is forever part of our research. So then if they try to use the same attack on you, we’ve seen it, we’ve done it.”
He continued: “ChatGPT and those sorts of LLMs allow you to go, ‘Hey, show me what adversaries are attacking healthcare. Show me what adversaries are attacking hospitals. Show me the techniques that they’re using. Have those techniques ever been used in my network? Give me the list of machines where those techniques have been used.’ And then you can keep going through that process. You don’t have to be an expert, but using that technology could lower the barrier of entry to become a decent threat hunter, a positive.”
RSAC 2023’s most discussed topic was the newly announced ChatGPT products and integrations.
Of the 20 vendors who announced new products and integration, the most noteworthy are Airgap Networks, Google Security AI Workbench, Microsoft Security Copilot (launched before the show), Recorded Future, Security Scorecard and SentinelOne.
The most reliable ones on the show floor had previously been trained on large-scale datasets. Their accuracy showed why it’s important to train a model with the correct data.
Airgap’s Zero Trust Firewall (ZTFW) with ThreatGPT is noteworthy. It’s been engineered to complement existing perimeter firewall infrastructures by adding a dedicated layer of microsegmentation and access in the network core. “With highly accurate asset discovery, agentless microsegmentation and secure access, Airgap offers a wealth of intelligence to combat evolving threats,” Ritesh Agrawal, CEO of Airgap, said. “What customers need now is an easy way to harness that power without any programming. And that’s the beauty of ThreatGPT — the sheer data-mining intelligence of AI coupled with an easy, natural language interface. It’s a game-changer for security teams.”
Airgap is considered to have one of the most innovative engineering and product development teams among the top 20 zero-trust startups. Airgap’s ThreatGPT uses a combination of graph databases and GPT-3 models to provide previously unavailable cybersecurity insights. The company configured the GPT-3 models to analyze natural language queries and identify potential security threats, while graph databases are integrated to provide contextual intelligence on traffic relationships between endpoints.
How ChatGPT will strengthen zero trust
One way generative AI can strengthen zero trust is by identifying and strengthening a business’s most vulnerable threat surfaces. John Kindervag, the creator of zero trust, advised in an interview with VentureBeat earlier this year that “you start with a protected surface,” and talked about he called “the zero-trust learning curve. You don’t start at technology, and that’s the misunderstanding.”
Here are potential ways generative AI can strengthen core areas of zero trust as it is defined in the NIST 800-207 standard:
Unifying and learning from threat analysis and incident response at an enterprise level
CISOs tell VentureBeat that they want to consolidate their tech stacks because there are too many conflicting systems for threat analysis, incident response and alert systems, and SOC analysts aren’t sure what’s the most urgent. Generative AI and ChatGPT are already proving to be powerful tools for consolidating applications. They will finally give CISOs a single view of threat analysis and incident response across their infrastructure.
Identifying identity-driven internal and external breach attempts faster with continuous monitoring
At the center of zero trust are identities. Generative AI has the potential to quickly identify whether a given identity’s activity is consistent with its previous history.
CISOs tell VentureBeat that the most challenging breach to stop is the one that starts inside, with legitimate identities and credentials.
One of the core strengths of LLMs is the ability to spot anomalies in data based on small sample sizes. That’s perfect for securing IAM, PAM and Active Directories. LLMs are proving effective in analyzing user access logs and detecting suspicious activity.
Overcoming microsegmentation’s most challenging roadblocks
The many challenges of getting microsegmentation right can make large-scale microsegmentation projects drag on for months or even years. While network microsegmentation aims to segregate and isolate defined segments in an enterprise network, it’s rarely a one-and-done task.
Generative AI can help by identifying how to best introduce microsegmentation without interrupting access to systems and resources in the process. Best of all, it can potentially reduce thousands of trouble tickets in IT service management systems created by a bad microsegmentation project.
Solving the security challenge of managing and protecting endpoints and identities
Attackers search for gaps between endpoint security and identity management. Generative AI and ChatGPT can help solve this problem by giving threat hunters the intelligence they need to know which endpoints are at the most significant risk of a breach.
In keeping with the need to improve muscle memory, especially when it comes to endpoints, generative AI could be used to constantly learn how, where and by which methods attackers are trying to penetrate an endpoint and the identities they’re attempting to use.
Taking least privilege access to an entirely new level
Applying generative AI to the challenge of limiting access to resources by identity, system and length of time is one of the strongest zero-trust use cases. Asking ChatGPT for audit data by resource and a permissions profile will save system administrators and SOC teams thousands of hours a year.
A core part of least privilege access is deleting obsolete accounts. Ivanti’s State of Security Preparedness 2023 Report found that 45% of enterprises suspect former employees and contractors still have active access to company systems and files.
“Large organizations often fail to account for the huge ecosystem of apps, platforms and third-party services that grant access well past an employee’s termination,” said Dr. Srinivas Mukkamala, chief product officer at Ivanti. “We call these zombie credentials, and a shockingly large number of security professionals — and even leadership-level executives — still have access to former employers’ systems and data.”
Fine-tuning behavioral analytics, risk scoring, and real-time adjustment of security personas and roles
Generative AI and ChatGPT will enable SOC analysts and teams to adapt much faster to anomalies discovered by behavioral analysis and risk scoring. They can then immediately shut down any lateral movement a potential attacker is attempting. Defining privilege access by risk score alone will be outdated; generative AI will contextualize the request and send an alert to its algorithms to identify a potential threat.
Improved real-time analytics, reporting and visibility to help stop online fraud
Most successful zero-trust initiatives are built on an integrated data foundation that aggregates and reports real-time analytics, reporting and visibility. Using that data to teach generative AI models will deliver insights that SOC, threat hunters and risk analysts have never seen before.
The results will be immediately measurable in stopping ecommerce fraud, where attackers prey on ecommerce systems that can’t keep up with attacks. Threat analysts with ChatGPT’s access to historical data will know immediately if a flagged transaction is legitimate.
Improving context-aware access, strengthened with granular access controls
Another core component of zero trust is the granularity of access controls by identity, asset and endpoint. Look for generative AI to create entirely new workflows that can more accurately detect the combination of network traffic patterns, user behavior and contextual intelligence from integrated data to suggest policy changes by identity, role or persona. Threat hunters, SOC analysts and fraud analysts will know in seconds about every compromised privileged access credential and be able to restrict all access with a simple ChatGPT command.
Hardening configuration and compliance to make them more zero-trust compliant
The LLM models on which ChatGPT is based are already proving effective at improving anomaly detection and streamlining fraud detection. What’s next in this area is capitalizing on ChatGPT’s models to automate access policy and user group creation and improve how compliance is managed with real-time data generated by the models. ChatGPT will make managing configuration, governance risk and compliance reporting possible in a fraction of the time it takes today.
Limiting the blast radius of the attacker’s favorite weapon: The phishing attack
It’s the threat surface attackers thrive on — luring victims with social engineering schemes that allude to large cash payouts. ChatGPT is already proving very effective at natural language processing (NLP), and that combined with its LLMs makes it effective at detecting unusual text patterns in emails — patterns that often are a sign of business email compromise (BEC) fraud. ChatGPT can also identify emails produced by itself and send them to quarantine. It is being used to create the next generation of cyber-resilient platforms and detection systems.
Focus on turning zero-trust weaknesses into strengths
ChatGPT and generative AI can take on the challenge of continually improving threat intelligence and knowledge by strengthening the muscle memory of an organization’s zero-trust security. It’s time to see these technologies as learning systems that can help organizations sharpen their automated — and human — skills at protecting against external and internal threats, by logging and inspecting all network traffic, limiting and controlling access, and verifying and securing network resources.
VentureBeat’s mission is to be a digital town square for technical decision-makers to gain knowledge about transformative enterprise technology and transact. Discover our Briefings.