Trí tuệ nhân tạo tự lập lý của Baidu: Kết thúc với các mô hình ngôn ngữ ‘ảo giác’?

Baidu công bố AI tự lập: Kết thúc của các mô hình ngôn ngữ “trí tưởng”? Tham gia danh sách thông tin hàng ngày và hàng tuần của chúng tôi để cập nhật mới nhất và nội dung độc quyền về bản tin AI hàng đầu. Tìm hiểu thêm. #Baidu #AI #SelfReasoning #TechNews Công ty công nghệ Trung Quốc lớn Baidu vừa công bố một bước tiến trong trí tuệ nhân tạo có thể làm cho các mô hình ngôn ngữ đáng tin cậy hơn và đáng tin cậy hơn. Các nhà nghiên cứu tại công ty này đã tạo ra một khung “tự lập lý” mới, cho phép các hệ thống AI đánh giá một cách phê phán kiến thức của mình và quyết định quá trình ra quyết định của mình. Phương pháp mới này, được mô tả trong một bài báo được xuất bản trên arXiv, giải quyết một thách thức khó khăn trong AI: đảm bảo tính chính xác của các mô hình ngôn ngữ lớn. Những hệ thống mạnh mẽ này, là cơ sở cho các chatbot phổ biến và các công cụ AI khác, đã cho thấy khả năng đáng kinh ngạc trong việc tạo ra văn bản giống con người. Tuy nhiên, chúng thường gặp khó khăn trong việc đồng nhất về sự thật, tự tin tạo ra thông tin sai lầm – hiện tượng mà các nhà nghiên cứu AI gọi là “lầm tưởng”. #ArtificialIntelligence #Innovation #Technology “Baidu đề xuất một khung tự lập lý mới nhằm mục tiêu cải thiện tính đáng tin cậy và dễ theo dõi của các mô hình ngôn ngữ được gia tăng (RALMs), ý tưởng cốt lõi của nó là tận dụng các con đường lý luận được tạo ra bởi LLM chính nó,” các nhà nghiên cứu đã giải thích. “Khung việc này bao gồm xây dựng các con đường lý luận tự lập với ba quá trình: một quá trình nhận thức về sự liên quan, một quá trình chọn lọc nhận thức về bằng chứng và một quá trình phân tích con đường.” #Breakthrough #AIresearch #BaiduTechnology Công việc của Baidu đưa ra một trong những vấn đề cấp thiết nhất trong phát triển AI: tạo ra hệ thống có thể không chỉ tạo ra thông tin mà còn xác minh và ngữ cảnh hóa nó. Bằng cách tích hợp cơ chế tự lập lý, phương pháp này đi xa hơn việc tìm kiếm thông tin và tạo ra văn bản, chuyển sang lĩnh vực của các hệ thống AI có thể đánh giá chặt chẽ các đầu ra của mình. #AIdevelopment #TechnologicalAdvancement #Innovation Đừng quên tổ chức duy nhất này #AI #Baidu #SelfReasoning #Technology #Innovation #TrustworthyAI Nguồn: https://venturebeat.com/ai/baidu-self-reasoning-ai-the-end-of-hallucinating-language-models/

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


Chinese tech giant Baidu has unveiled a breakthrough in artificial intelligence that could make language models more reliable and trustworthy. Researchers at the company have created a novel “self-reasoning” framework, enabling AI systems to critically evaluate their own knowledge and decision-making processes.

The new approach, detailed in a paper published on arXiv, tackles a persistent challenge in AI: ensuring the factual accuracy of large language models. These powerful systems, which underpin popular chatbots and other AI tools, have shown remarkable capabilities in generating human-like text. However, they often struggle with factual consistency, confidently producing incorrect information—a phenomenon AI researchers call “hallucination.”

“We propose a novel self-reasoning framework aimed at improving the reliability and traceability of retrieval augmented language models (RALMs), whose core idea is to leverage reasoning trajectories generated by the LLM itself,” the researchers explained. “The framework involves constructing self-reason trajectories with three processes: a relevance-aware process, an evidence-aware selective process, and a trajectory analysis process.”

Baidu’s work addresses one of the most pressing issues in AI development: creating systems that can not only generate information but also verify and contextualize it. By incorporating a self-reasoning mechanism, this approach moves beyond simple information retrieval and generation, venturing into the realm of AI systems that can critically assess their own outputs.

This development represents a shift from treating AI models as mere prediction engines to viewing them as more sophisticated reasoning systems. The ability to self-reason could lead to AI that is not only more accurate but also more transparent in its decision-making processes, a crucial step towards building trust in these systems.

How Baidu’s self-reasoning AI outsmarts hallucinations

The innovation lies in teaching the AI to critically examine its own thought process. The system first assesses the relevance of retrieved information to a given query. It then selects and cites pertinent documents, much like a human researcher would. Finally, the AI analyzes its reasoning path to generate a final, well-supported answer.

This multi-step approach allows the model to be more discerning about the information it uses, improving accuracy while providing clearer justification for its outputs. In essence, the AI learns to show its work—a crucial feature for applications where transparency and accountability are paramount.

In evaluations across multiple question-answering and fact verification datasets, the Baidu system outperformed existing state-of-the-art models. Perhaps most notably, it achieved performance comparable to GPT-4, one of the most advanced AI systems currently available, while using only 2,000 training samples.

A diagram illustrating Baidu’s self-reasoning AI framework, showing how the system analyzes and processes information to answer the question ‘Who painted the ceiling of the Florence Cathedral?’ The three-step process—Relevant-Aware, Evidence-Aware Selective, and Trajectory Analysis—demonstrates the AI’s ability to critically evaluate and synthesize information before providing a final answer. (Image Credit: arxiv.org)

Democratizing AI: Baidu’s efficient approach could level the playing field

This efficiency could have far-reaching implications for the AI industry. Traditionally, training advanced language models requires massive datasets and enormous computing resources. Baidu’s approach suggests a path to developing highly capable AI systems with far less data, potentially democratizing access to cutting-edge AI technology.

By reducing the resource requirements for training sophisticated AI models, this method could level the playing field in AI research and development. This could lead to increased innovation from smaller companies and research institutions that previously lacked the resources to compete with tech giants in AI development.

However, it’s crucial to maintain a balanced perspective. While the self-reasoning framework represents a significant step forward, AI systems still lack the nuanced understanding and contextual awareness that humans possess. These systems, no matter how advanced, remain fundamentally pattern recognition tools operating on vast amounts of data, rather than entities with true comprehension or consciousness.

The potential applications of Baidu’s technology are significant, particularly for industries requiring high degrees of trust and accountability. Financial institutions could use it to develop more reliable automated advisory services, while healthcare providers might employ it to assist in diagnosis and treatment planning with greater confidence.

A diagram illustrating Baidu’s self-reasoning AI framework, showing how the system analyzes and processes information to answer the question ‘When was Catch Me If You Can made?’ The multi-step process demonstrates the AI’s ability to critically evaluate retrieved documents, select relevant evidence, and analyze its reasoning trajectory before providing a final answer of 2002, outperforming simpler AI approaches. (Image Credit: arxiv.org)

The Future of AI: Trustworthy machines in critical decision-making

As AI systems become increasingly integrated into critical decision-making processes across industries, the need for reliability and explainability grows ever more pressing. Baidu’s self-reasoning framework represents a significant step toward addressing these concerns, potentially paving the way for more trustworthy AI in the future.

The challenge now lies in expanding this approach to more complex reasoning tasks and further improving its robustness. As the AI arms race continues to heat up among tech giants, Baidu’s innovation serves as a reminder that the quality and reliability of AI systems may prove just as important as their raw capabilities.

This development raises important questions about the future direction of AI research. As we move towards more sophisticated self-reasoning systems, we may need to reconsider our approaches to AI ethics and governance. The ability of AI to critically examine its own outputs could necessitate new frameworks for understanding AI decision-making and accountability.

Ultimately, Baidu’s breakthrough underscores the rapid pace of advancement in AI technology and the potential for innovative approaches to solve longstanding challenges in the field. As we continue to push the boundaries of what’s possible with AI, balancing the drive for more powerful systems with the need for reliability, transparency, and ethical considerations will be crucial.

Leave a Reply

Your email address will not be published. Required fields are marked *