Nghi ngờ về trí tuệ nhân tạo? Điều đó hoàn toàn bình thường (và lành mạnh)

Đang hoài nghi về trí tuệ nhân tạo? Điều đó hoàn toàn bình thường (và lành mạnh) Hãy tham gia bản tin hàng ngày và hàng tuần của chúng tôi để cập nhật thông tin mới nhất và nội dung độc quyền về bảo mật trí tuệ nhân tạo hàng đầu trong ngành. Tìm hiểu thêm ít khi cảm thấy sợ hãi, nhiều khi cảm thấy mệt mỏi. Đó là nơi mà nhiều trong chúng ta đang sống với trí tuệ nhân tạo. Tuy nhiên, tôi đắm chìm trong trí tuệ nhân tạo. Mặc dù có vô số và hễ hứa về trí tuệ nhân tạo hứa hẹn sẽ định hình ngành công nghiệp, trí óc và cách chúng ta sống, quan trọng là tiếp cận tiếng ồn và hy vọng bằng một sự hồi hộp mới mẻ mà chơi vơi phức tạp. Một cách tiếp cận khuyến khích tranh luận và duy trì một liều lượng hợp lý của sự hoài nghi. Hoạt động với một tư duy hoài nghi là giải phóng, thực dụng, thách thức kiến thức thông thường và nuôi dưỡng những gì dường như là mất cảm giác thông minh, đặc biệt nếu bạn đang sống lo lắng với những giả định và tin đồn vô tận. Chúng ta dường như bị mắc kẹt trong một phần hoặc cuộc chiến của ‘nhanh lên và đợi đến khi’ khi chúng ta theo dõi sự thật và lợi ích của trí tuệ nhân tạo. Chúng ta biết rằng có một tương lai rực rỡ được quảng cáo và kích thước thị trường trí tuệ nhân tạo toàn cầu được ước tính sẽ vượt quá 454 tỷ đô la vào cuối năm 2024, lớn hơn cả GDP của 180 quốc gia, bao gồm Phần Lan, Bồ Đào Nha và New Zealand. Ngược lại, một nghiên cứu gần đây dự đoán rằng vào cuối năm 2025, ít nhất 30% dự án trí tuệ nhân tạo phôi sẽ bị bỏ rơi sau giai đoạn chứng minh kiểu. Và trong một báo cáo khác “theo một số ước lượng, hơn 80% dự án trí tuệ nhân tạo thất bại — gấp đôi tỷ lệ của các dự án CNTT mà không liên quan đến trí tuệ nhân tạo”. Khai quật hay bùng nổ? Mặc dù hoài nghi và bi quan thường được coi là miêu tả không can đảo, nhưng chúng khác nhau về cách tiếp cận. Sự hoài nghi bao gồm sự điều tra, đặt câu hỏi về những tuyên bố, mong muốn có bằng chứng và thường tập trung vào xây dựng với một trọng tâm phê phán. Bi quan thường giới hạn khả năng, bao gồm nghi ngờ (và có thể làm lo lắng), có thể dự báo một kết quả tiêu cực. Nó có thể được xem xét là một trạng thái hoặc hành vi không hiệu quả, không hấp dẫn và không thúc đẩy — mặc dù nếu bạn tin rằng sợ hãi bán sản phẩm, vậy, nó sẽ không biến mất. Sự hoài nghi, có nguồn gốc từ cuộc điều tra triết học, bao gồm việc đặt câu hỏi về tính chính xác của những lời tuyên bố và tìm kiếm bằng chứng trước khi chấp nhận chúng như là sự thật. Từ ngữ Hy Lạp “skepsis” có nghĩa là điều tra. Đối với những người theo dõi trí tuệ nhân tạo ngày nay, sự cam kết đến sự điều tra trí tuệ nhân tạo phục vụ như một công cụ lý tưởng, tìm kiếm sự thật để đánh giá rủi ro và lợi ích, đảm bảo rằng sự đổi mới là an toàn, hiệu quả và, đúng, có trách nhiệm. Chúng ta có một hiểu biết vững chắc, lịch sử về cách điều tra phê phán đã giúp ích xã hội, mặc dù đôi khi cũng lở lợ. Các loại vắc xin đã đối mặt với sự kiểm tra gắt gao và sự phản đối vì các vấn đề an toàn và đạo đức, nhưng nghiên cứu liên tục đã dẫn đến việc sản xuất vắc xin đã cứu sống hàng triệu người. Thẻ tín dụng dẫn đến lo ngại về quyền riêng tư, gian lận và việc khuyến khích chi tiêu không có trách nhiệm. Ngành ngân hàng đã cải thiện trải nghiệm một cách rộng rãi thông qua kiểm tra theo yêu cầu của người dùng, cập nhật cơ sở hạ tầng và cạnh tranh lành mạnh. Truyền hình ban đầu bị chỉ trích vì là một công cụ mất tập trung và tiềm ẩn nguy cơ suy thoái đạo đức. Những kẻ phê phán nghi ngờ về tính mới lạ và giá trị giáo dục của nó, xem nó như là một xa xỉ chứ không phải là một sự cần thiết. Máy rút tiền tự động phải đối mặt với lo ngại bao gồm việc máy làm lỗi hoặc người dân không tin tưởng vào công nghệ điều khiển tiền bạc của mình. Điện thoại thông minh gặp nghi ngờ vì thiếu bàn phím, có tính năng hạn chế, thời lượng pin và hơn thế nữa, nhưng đã được giảm bớt qua cải thiện giao diện và mạng, liên minh chính phủ và các hình thức thu nhập mới. may mắn thay, chúng ta đã tiến xa, các giao thức hiện đại khi được sử dụng một cách chuyên nghiệp (thay vì không được sử dụng) — tạo ra một phương tiện tiếp cận cân đối không mù quáng hoặc từ chối nguồn lợi ích của trí tuệ nhân tạo. Ngoài ra, ngoài các khung làm việc giúp quyết định đòi hỏi đầu nguồn so với rủi ro, chúng ta có một tập hợp các công cụ đã được chứng minh để đánh giá độ chính xác, thiên vị và đảm bảo sử dụng trí tuệ nhân tạo có trách nhiệm. Để ít chống đối hơn, phân biệt hơn và có lẽ một skepsis đầy hy vọng và hạnh phúc, một mẫu một số công cụ ít được thấy bao gồm: Phương pháp đánh giáNó làm gì…Vi dụNó đang tìm kiếm ‘sự thật’… Phát hiện ảo tưởngNhận diện sự chính xác thông tin trong đầu ra của trí tuệ nhân tạoPhát hiện khi một trí tuệ nhân tạo nói sai về ngày tháng lịch sử hoặc các sự kiện khoa họcMong muốn đảm bảo nội dung trí tuệ nhân tạo được chứa đựng nó là chính xác Nâng cao thông tin dựa trên truy xuất (RAG)Kết hợp kết quả từ các mô hình được huấn luyện với các nguồn thông tin bổ sung để bắt gồm thông tin hữu ích nhấtMột trợ lý trí tuệ nhân tạo sử dụng các bài báo tin tức hiện tại để trả lời câu hỏi về sự kiện gần đây Thông tin hiện tại và có liên quan từ nhiều nguồn thông tin tóm lại, độ chính xác và hiệu suất tổng thể của mô hình trí tuệ nhân tạo Đánh giá độ chính xác, nhớ lại, điểm F1Đo lường sự chính xác và hoàn chỉnh của đầu ra trí tuệ nhân tạoĐánh giá một trí tuệ nhân tạo chẩn đoán bệnh có khả năng xác định chính xác các căn bệnh Sự cân bằng giữa sự chính xác, đầy đủ và hiệu suất mô hình trí tuệ nhân tạo Thử nghiệm chéoKiểm tra hiệu suất mô hình trên các tập dữ liệu khác nhauHuấn luyện một mô hình phân tích tâm trạng trên nhận xét phim và kiểm tra nó trên nhận xét sản phẩmĐảm bảo mô hình thực hiện ổn định trên các bộ dữ liệu khác nhau, cho thấy tính đáng tin cậy Đánh giá công bằngKiểm tra sự thiên lệch trong quyết định trí tuệ nhân tạo giữa các nhóm khác nhauĐánh giá tỷ lệ chấp nhận vay vốn cho các nhóm dân tộc khác nhau trong một công ty tài chính đòi hỏi xử lý công bằng và không chứa các mô hình phân biệt có vẻ and does not perpetuate biases A/B testingChạy thực nghiệm để so sánh hiệu suất của một tính năng trí tuệ nhân tạo mới so với tiêu chuẩn hiện tạiThử nghiệm chatbot trí tuệ nhân tạo so với đại diện dịch vụ khách hàng con ngườiValidation, cải tiến hoặc thay đổi từ các chỉ số hiệu suất so sánh phát hiện bất thường Sử dụng mô hình thống kê hoặc các thuật toán học máy để nhận biết sự lệch khỏi các mẫu dự kiến Phát hiện giao dịch tài chính bất thường trong các hệ thống phát hiện gian lận Áp dụng nhất quán và tuân thủ các tiêu chuẩn, tiêu chí và/hoặc giao thức kiểm tra nhất quán tự nhiên Đặt câu hỏi về câu hỏi ra phương pháp Cải thiện câu thì để có hiệu suất tốt nhất từ các mô hình trí tuệ nhân tạo như GPTCấu trúc câu hỏi theo cách mà có thể mang lại câu trả lời chính xác nhấtTương tác tốt nhất giữa con người và trí tuệ nhân tạoKiểm tra trải nghiệm người dùngĐánh giá cách người dùng tương tác với và cảm nhận hệ thống trí tuệ nhân tạo kiểm tra khả năng sử dụng của trợ lí ảo dựa trên trí tuệ nhân tạo Sự hài lòng của người dùng và tương tác con người-trí tuệ nhân tạo 4 khuyến nghị để duy trì thiện chí và sự hoài nghi khi khám phá các giải pháp trí tuệ nhân tạo Khi chúng ta tiếp tục điều hướng qua thời đại lo sợ và hồi hộp của trí tuệ nhân tạo, việc chấp nhận các phương pháp dựa trên hoài nghi sẽ là chìa khóa để đảm bảo rằng sự đổi mới phục vụ tốt nhất cho lợi ích của nhân loại. Đây là bốn khuyến nghị để duy trì ý thức và thực hành rộng rãi. Yêu cầu minh bạch: Đòi hỏi giải thích rõ ràng về công nghệ với người dùng hoặc khách hàng có thể tham khảo. Ngoài các nhà cung cấp bên ngoài và các liên hệ trong ngành/ học thuật, hãy đặt cùng mức độ cơ động với các đội nội bộ vượt ra ngoài pháp lý và công nghệ thông tin, như mua sắm, nhân sự và bán hàng. Khuyến khích sự tham gia dân chủ hướng con người trước tiên: Rất nhiều cải thiện từ trên xuống thất bại vì mục tiêu có thể loại trừ ảnh hưởng đến đồng nghiệp và có thể là cộng đồng rộng lớn. Hỏi trước: Làm đồng đội không có tư bản, cách tiếp cận của chúng ta để hiểu về ảnh hưởng của trí tuệ nhân tạo, thay vì ngay lập tức chỉ định một nhóm nhiệm vụ liệt kê và xếp hạng năm trường hợp sử dụng hàng đầu. Theo dõi chặt chẽ (và chấp nhận?) quy định, an toàn, đạo đức và quy định về quyền riêng tư: Mặc dù Liên minh Châu Âu đang triển khai LUÂN PHÁP TRÍ TUỆ NHÂN TẠO của mình, và các bang như California cố gắng khởi đầu các dự luật quy định trí tuệ nhân tạo gây tranh cãi, bất kể vị trí của bạn, những quy định này sẽ Nguồn: https://venturebeat.com/ai/why-its-healthy-to-be-skeptical-about-ai/

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


Less frightened. More fatigued. That’s where many of us reside with AI. Yet, I am in awe of AI. Despite the plethora and platitudes of AI promising to reshape industry, intellect and how we live, it’s vital to approach the noise and hope with a fresh excitement that embraces complexity. One that encourages argument and sustains a healthy dose of skepticism. Operating with a skeptical mindset is liberating, pragmatic, challenges convention and nourishes what seems to be a frequently missing sense of sanity, especially if you’re restless with endless assumptions and rumor.

We seem to be caught in a chasm or battle of ‘hurry up and wait’ as we monitor the realities and benefits of AI.  We know there’s an advertised glowing future and the market size of global AI is estimated to be more than $454 billion by the end of 2024, which is larger than the individual GDPs of 180 countries, including Finland, Portugal and New Zealand. 

Conversely, though, a recent study predicts that by the end of 2025, at least 30% of generative AI projects will be abandoned after the proof-of-concept stage, and in another report “by some estimates more than 80% of AI projects fail — twice the rate of IT projects that do not involve AI”. 

Blossom or boom?

While skepticism and pessimism are often conflated descriptions, they are fundamentally different in approach.

Skepticism involves inquiry, questioning claims, a desire for evidence and is typically constructive laden with a critical focus. Pessimism tends to limit possibility, includes doubt (and maybe alarm), perhaps anticipating a negative outcome. It may be seen as an unproductive, unappealing and unmotivating state or behavior — although if you believe fear sells, well, it’s not going away.

Skepticism, rooted in philosophical inquiry, involves questioning the validity of claims and seeking evidence before accepting them as truth. The Greek word “skepsis” means investigation. For modern-day skeptics, a commitment to AI inquiry serves as an ideal, truth-seeking tool for evaluating risks and benefits, ensuring that innovation is safe, effective and, yes, responsible. 

We have a sound, historical understanding how critical inquiry has benefited society, despite some very shaky starts:

  • Vaccinations faced heavy scrutiny and resistance due to safety and ethical issues, yet ongoing research led to vaccines that have saved millions of lives.
  • Credit cards led to concerns about privacy, fraud and the encouragement of irresponsible spending. The banking industry improved the experience broadly via user-driven testing, updated infrastructure and healthy competition.
  • Television was initially criticized for being a distraction and a potential cause of moral decline. Critics doubted its newsworthiness and educational value, seeing it as a luxury rather than a necessity. 
  • ATMs faced concerns including machines making errors or people’s distrust of technology controlling their money. 
  • Smartphones were doubtful given they lacked a keyboard, had limited features, battery life and more, yet were alleviated by interface and network improvements, government alliances and new forms of monetization.

Thankfully, we have evolving, modern protocols that — when used diligently (versus not at all) — provide a balanced approach that neither blindly accepts nor outright rejects AI utility. In addition to frameworks that aid upstream demand versus risk decision-making, we do have a proven set of tools to evaluate accuracy, bias, and ensure ethical use.  

To be less resistant, more discerning and perhaps a hopeful and happy skepsis, a sampling of these less visible tools include: 

Evaluation MethodWhat it does…ExamplesWhat it’s seeking as ‘truth’…
Hallucination detectionIdentifies factual inaccuracies in AI outputDetecting when an AI incorrectly states historical dates or scientific factsSeeks to ensure AI-generated content is factually accurate
Retrieval- augmented generation (RAG)Combining results from trained models with additional sources to include the most relevant informationAn AI assistant using current news articles to answer questions about recent eventsCurrent and contextually relevant information from multiple inputs
Precision, recall, F1 scoringMeasures the accuracy and completeness of AI outputsEvaluating a medical diagnosis AI’s ability to correctly identify diseasesBalance between accuracy, completeness and overall AI model performance
Cross-validationTests model performance on different subsets of dataTraining a sentiment analysis model on movie reviews and testing it on product reviewsSeeks to ensure the model performs consistently well across different datasets indicating reliability
Fairness evaluationChecks for bias in AI decisions across different groupsAssessing loan approval rates for various ethnic groups in a financial AIEquitable treatment and absence of discriminatory patterns and does not perpetuate biases
A/B testingRunning experiments to compare the performance of a new AI feature against an existing standardTesting an AI chatbot against human customer service representativesValidation, improvements or changes from compared performance metrics
Anomaly detection checksUsing statistical models or machine learning algorithms to spot deviations from expected patterns. Flagging unusual financial transactions in fraud detection systemsConsistency and adherence to expected standards, rubrics and/or protocols
Self-consistency checksEnsures AI responses are internally consistentChecking that an AI’s answers to related questions don’t contradict each otherLogical coherence and reliability; results are not erratic or random
Data augmentationExpands training datasets with modified versions of existing dataEnhancing speech recognition models with varied accents and speech patternsImproved model generalization and robustness
Prompt engineering methodsRefining prompts to get the best performance out of AI models like GPT Structuring questions in a way that yields the most accurate responsesOptimal communication between humans and AI
User experience testingAssesses how end-users interact with and perceive AI systemsTesting the usability of an AI-powered virtual assistantUser satisfaction and effective human-AI interaction

4 recommendations for staying constructive and skeptical when exploring AI solutions

As we continue to navigate this age of AI fear and excitement, embracing skepticism-based approaches will be key to ensuring that innovations serve the best interests of humanity. Here are four recommendations to stay mindful of and practice broadly.

  1. Demand transparency: Insist on clear technology explanations with referenceable users or customers. In addition to external vendors and industry/academic contacts, have the same level of expectation setting with internal teams beyond Legal and IT, such as procurement, HR and sales.
  2. Encourage people-first, grassroots participation: Many top-down initiatives fail as goals may exclude the impacts to colleagues and perhaps the broader community. Ask first: As non-hierarchical teammates, what is our approach to understand AI’s impact, versus immediately assigning a task force listing and ranking the top five use cases.
  3. Rigorously track (and embrace?) regulation, safety, ethics and privacy rulings: While the European Union is deploying its AI ACT, and states such as California attempt to initiate controversial AI regulation bills, regardless of your position, these regulations will impact your decisions. Regularly evaluate the ethical implications of these AI advancements prioritizing human and societal impacts over scale, profit and promotion.
  4. Validate performance claims: Request evidence and conduct independent testing when possible.  Ask about the evaluation methods listed above. This is especially true when working with new ‘AI-first’ companies and vendors.

Skepticism is nourishing.  We need methods to move beyond everyday chatter and commotion. Whether you’re in malnourished doubt, or discerning awe, this is not a zero sum competition. A cynic or pessimist’s gain does not lead to an equivalent loss in others’ optimism. I am in awe of AI. I believe it will help us win and our rules for success are grounded in humble judgment.

In a way, albeit with provocation, skepticism is a sexy vulnerability. It’s a discerning choice that should be in every employee manual to ensure new technologies are vetted responsibly without unattractive alarm. 

Marc Steven Ramos is chief learning officer at Cornerstone.

DataDecisionMakers

Welcome to the VentureBeat community!

DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.

If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.

You might even consider contributing an article of your own!

Read More From DataDecisionMakers

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *