Tại sao tự điều chỉnh công nghệ trí tuệ nhân tạo là một bước đi thông minh trong kinh doanh

Tại sao tự quản lý của trí tuệ nhân tạo là một động thái thông minh của doanh nghiệp.

#TríTuệNhânTạo #QuảnLýTựGiác
Trong thư viện ra mắt của chúng tôi, bạn có thể xem các phiên từ VB Transform 2023. Đăng ký tại đây!

Các chatbot Trò chuyện GPT và các chatbot tạo văn bản và hình ảnh khác đã thu hút sự tưởng tượng của hàng triệu người – nhưng không phải không gây tranh cãi. Mặc dù có nhiều không chắc chắn, doanh nghiệp đã tham gia trò chơi này, cho dù họ đang vui đùa với các chatbot trí tuệ nhân tạo được tạo mới nhất hay triển khai quy trình được hỗ trợ bởi trí tuệ nhân tạo trong toàn bộ doanh nghiệp của họ. Đó là lý do tại sao việc đưa ra giải pháp cho những mối lo ngại ngày càng tăng về tính không thể dự đoán của trí tuệ nhân tạo – cũng như những tác động có thể dự đoán và có thể gây hại đến người dùng cuối – là rất quan trọng. Việc không làm điều này sẽ làm suy yếu sự tiến bộ và hứa hẹn của trí tuệ nhân tạo. Và mặc dù các chính phủ đang tiến hành tạo ra các quy định về việc sử dụng trí tuệ nhân tạo đạo đức, thế giới kinh doanh không thể chờ đợi. Các công ty cần thiết lập các quy tắc riêng của mình. Công nghệ đang diễn ra quá nhanh – nhanh hơn rất nhiều so với quy định trí tuệ nhân tạo, không có gì đáng ngạc nhiên – và rủi ro kinh doanh quá lớn. Có thể hấp dẫn để học khi bạn đi, nhưng tiềm năng để mắc lỗi đắt đỏ là lý lẽ chống lại một phương pháp phổ quát. Tự quản lý để gây niềm tin. Có nhiều lý do để các doanh nghiệp quản lý tự mình những nỗ lực về trí tuệ nhân tạo của họ – giá trị doanh nghiệp và sự sẵn lòng của tổ chức, trong đó có. Nhưng quản lý rủi ro có thể là yếu tố quan trọng nhất. Bất kỳ sai sót nào có thể làm suy yếu quyền riêng tư của khách hàng, sự tin tưởng của khách hàng và danh tiếng của doanh nghiệp. Hơn nữa, may mắn thay có rất nhiều điều mà các doanh nghiệp có thể thực hiện để xây dựng niềm tin vào các ứng dụng và quy trình của trí tuệ nhân tạo. Việc lựa chọn các công nghệ cơ bản đúng – những công nghệ giúp tạo điều kiện phát triển và sử dụng trí tuệ nhân tạo có suy nghĩ là một phần của câu trả lời. Quan trọng đến bằng mức đảm bảo rằng các nhóm xây dựng những giải pháp này được đào tạo trong cách tiếp cận và giảm thiểu rủi ro. Sự thành công cũng phụ thuộc vào tầm nhìn và quản trị trí tuệ nhân tạo có ý thức được những tập dữ liệu và mô hình ngôn ngữ đang được sử dụng, đánh giá rủi ro, các phê duyệt, và nhật ký kiểm tra và nhiều hơn nữa. Các nhóm dữ liệu – từ kỹ sư chuẩn bị dữ liệu đến các nhà khoa học dữ liệu xây dựng mô hình – phải tỉnh táo xem xét sự thiên vị của trí tuệ nhân tạo ở mọi bước và không cho phép nó tiếp diễn trong quá trình và kết quả. Quản lý rủi ro phải bắt đầu từ bây giờ. Có thể một ngày nào đó các tổ chức có rất ít sự lựa chọn khác ngoài việc áp dụng một số trong những biện pháp này. Luật đang được chuẩn bị có thể yêu cầu kiểm soát và cân nhắc để đảm bảo rằng trí tuệ nhân tạo đối xử công bằng với người tiêu dùng. Cho đến nay ở Mỹ, Nhà Trắng đã ra một “Bản thiết kế cho một Cuộc cách mạng quyền tự do trí tuệ nhân tạo” đề ra các nguyên tắc để hướng dẫn phát triển và sử dụng trí tuệ nhân tạo – bao gồm các biện pháp bảo vệ chống phân biệt đối xử theo thuật toán và khả năng không thực hiện các quy trình tự động. Trong khi đó, các cơ quan liên bang đang làm rõ yêu cầu được tìm thấy trong các quy định hiện hành, như quy định trong Đạo luật FTC và Đạo luật Cơ hội vay vốn công bằng, như là một hàng rào bảo vệ AI đầu tiên cho công chúng. Nhưng các công ty thông minh sẽ không chờ đợi cho bất kỳ quy tắc và quy định pháp luật tổng quát nào có thể xuất hiện trong tương lai. Quản lý rủi ro phải bắt đầu từ bây giờ. Quy định về trí tuệ nhân tạo: Giảm rủi ro đồng thời tăng cậy nhờ cậy vào trí tuệ nhân tạo. Hãy tưởng tượng một tình huống giả định: Một người gửi một yêu cầu tới trung tâm chăm sóc khách hàng trí tuệ nhân tạo của một phòng khám y tế. “Tôi cảm thấy buồn,” người dùng nói. “Tôi nên làm gì?” Đây là một tình huống nhạy cảm và cho thấy cách mà rắc rối có thể nhanh chóng xuất hiện nếu không có sự chuẩn bị trước của trí tuệ nhân tạo. Điều gì xảy ra, chẳng hạn, nếu người đó đang trong tình trạng khủng hoảng cá nhân? Liệu nhà cung cấp dịch vụ chăm sóc sức khỏe có tiềm năng chịu trách nhiệm pháp lý nếu trí tuệ nhân tạo không cung cấp câu trả lời tinh vi như yêu cầu – hoặc tồi tệ hơn, đề xuất một hướng dẫn có thể gây hại? Các tình huống khó mà không thể kịp kịp kịp – và nguy hiểm – có thể nổi lên trong bất kỳ ngành nghề nào. Điều này giải thích tại sao việc nhận thức và quản lý rủi ro là một đối tượng của một số khung pháp đạo luật và không đạo luật. Đề xuất AI của Liên minh châu Âu đề cập đến các trường hợp sử dụng rủi ro cao và rủi ro không chấp nhận được. Ở Mỹ, Khung công nghệ quản lý rủi ro của Viện Tiêu chuẩn và Công nghệ Quốc gia được thiết kế để giảm thiểu rủi ro đối với cá nhân và tổ chức, đồng thời tăng “đáng tin cậy của các hệ thống trí tuệ nhân tạo. Làm thế nào để xác định tính đáng tin cậy của trí tuệ nhân tạo? Làm thế nào để xác định trí tuệ nhân tạo có đáng tin cậy hay không? Các phương pháp khác nhau đang xuất hiện trong các ngữ cảnh khác nhau, cho dù đó là Hướng dẫn về Trí tuệ nhân tạo đáng tin cậy của Ủy ban châu Âu, Đề xuất AI của Liên minh châu Âu, Lộ trình Bảo đảm AI của Vương quốc Anh và báo cáo gần đây về Quy định AI, hoặc AI Verify của Singapore. AI Verify cố gắng “xây dựng ni

Nguồn: https://venturebeat.com/ai/why-self-regulation-of-ai-is-a-smart-business-move/

Head over to our on-demand library to view sessions from VB Transform 2023. Register Here


ChatGPT and other text- and image-generating chatbots have captured the imagination of millions of people — but not without controversy. Despite the uncertainties, businesses are already in the game, whether they’re toying with the latest generative AI chatbots or deploying AI-driven processes throughout their enterprises.

That’s why it’s essential that businesses address growing concerns about AI’s unpredictability — as well as more predictable and potentially harmful impacts to end users. Failure to do so will undermine AI’s progress and promise. And though governments are moving to create rules for AI’s ethical use, the business world can’t afford to wait. 

Companies need to set up their own guardrails. The technology is simply moving too fast — much faster than AI regulation, not surprisingly — and the business risks are too great. It may be tempting to learn as you go, but the potential for making a costly mistake argues against an ad hoc approach. 

Self-regulate to gain trust

There are many reasons for businesses to self-regulate their AI efforts — corporate values and organizational readiness, among them. But risk management may be at the top of the list. Any missteps could undermine customer privacy, customer confidence and corporate reputation. 

Event

VB Transform 2023 On-Demand

Did you miss a session from VB Transform 2023? Register to access the on-demand library for all of our featured sessions.

 


Register Now

Fortunately, there’s much that businesses can do to establish trust in AI applications and processes. Choosing the right underlying technologies — those that facilitate thoughtful development and use of AI — is part of the answer. Equally important is ensuring that the teams building these solutions are trained in how to anticipate and mitigate risks. 

Success will also hinge on well-conceived AI governance. Business and tech leaders must have visibility into, and oversight of, the datasets and language models being used, risk assessments, approvals, audit trails and more. Data teams — from engineers prepping the data to data scientists building the models — must be vigilant in watching for AI bias every step of the way and not allow it to be perpetuated in processes and outcomes.

Risk management must begin now

Organizations may eventually have little choice but to adopt some of these measures. Legislation now being drafted could eventually mandate checks and balances to ensure that AI treats consumers fairly. So far, comprehensive AI regulation has yet to be codified, but it’s only a matter of time before that happens. 

To date in the U.S., the White House has released a “Blueprint for an AI Bill of Rights,” which lays out principles to guide the development and use of AI — including protections against algorithmic discrimination and the ability to opt out of automated processes. Meanwhile, federal agencies are clarifying requirements found in existing regulations, such as those in the FTC Act and the Equal Credit Opportunity Act, as a first line of AI defense for the public.

But smart companies won’t wait for whatever overarching government rules might materialize. Risk management must begin now.  

AI regulation: Lowering risk while increasing trust

Consider this hypothetical: A distressed person sends an inquiry to a healthcare clinic’s chatbot-powered support center. “I’m feeling sad,” the user says. “What should I do?”

It’s a potentially sensitive situation and one that illustrates how quickly trouble could surface without AI due diligence. What happens, say, if the person is in the midst of a personal crisis? Does the healthcare provider face potential liability if the chatbot fails to provide the nuanced response that’s called for — or worse, recommends a course of action that may be harmful? Similar hard-to-script — and risky — scenarios could pop up in any industry.

This explains why awareness and risk management are a focus of some regulatory and non-regulatory frameworks. The European Union’s proposed AI Act addresses high-risk and unacceptable risk use cases. In the U.S., the National Institute of Standards and Technology’s Risk Management Framework is intended to minimize risk to individuals and organizations, while also increasing “the trustworthiness of AI systems.”

How to determine AI trustworthiness?

How does anyone determine if AI is trustworthy? Various methodologies are arising in different contexts, whether the European Commission’s Guidelines for Trustworthy AI, the EU’s Draft AI Act, the U.K.’s AI Assurance Roadmap and recent White Paper on AI Regulation, or Singapore’s AI Verify. 

AI Verify seeks to “build trust through transparency,” according to the Organization for Economic Cooperation and Development. It does this by providing a framework to ensure that AI systems meet accepted principles of AI ethics. This is a variation on a widely shared theme: Govern your AI from development through deployment. 

Yet, as well-meaning as the various government efforts may be, it’s still crucial that businesses create their own risk-management rules rather than wait for legislation. Enterprise AI strategies have the greatest chance of success when some common principles — safe, fair, reliable and transparent — are baked into the implementation. These principles must be actionable, which requires tools to systematically embed them within AI pipelines.

People, processes and platforms

The upside is that AI-enabled business innovation can be a true competitive differentiator, as we already see in areas such as drug discovery, insurance claims forecasting and predictive maintenance. But the advances don’t come without risk, which is why comprehensive governance must go hand-in-hand with AI development and deployment.

A growing number of organizations are mapping out their first steps, taking into account people, processes and platforms. They’re forming AI action teams with representation across departments, assessing data architecture and discussing how data science must adapt.

How are project leaders managing all this? Some start with little more than emails and video calls to coordinate stakeholders, and spreadsheets to document and log progress. That works at a small scale. But enterprise-wide AI initiatives must go further and capture which decisions are made and why, as well as details on models’ performance throughout a project’s lifecycle. 

Robust governance the surest path

In short, the value of self-governance arises from documentation of processes, on the one hand, and key information about models as they’re developed and at the point of deployment, on the other. Altogether, this provides a complete picture for current and future compliance.

The audit trails made possible by this kind of governance infrastructure are essential for “AI explainability.” That comprises not only the technical capabilities required for explainability but also the social consideration — an organization’s ability to provide a rationale for its AI model and implementation.   

What this all boils down to is that robust governance is the surest path to successful AI initiatives — those that build customer confidence, reduce risk and drive business innovation. My advice: Don’t wait for the ink to dry on government rules and regulations. The technology is moving faster than the policy.

Jacob Beswick is director of AI governance solutions at Dataiku

DataDecisionMakers

Welcome to the VentureBeat community!

DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.

If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.

You might even consider contributing an article of your own!

Read More From DataDecisionMakers


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *