Queen Mobile Blog

Gleen AI muốn ngăn chặn ảo tưởng AI bằng dữ liệu riêng của doanh nghiệp.

Gleen AI muốn ngăn chặn hiện tượng ảo giác của trí tuệ nhân tạo bằng việc sử dụng dữ liệu riêng của các doanh nghiệp. #GleenAI #trítuệnhântạotrongdoanhnghiệp. Truy cập vào thư viện theo yêu cầu của chúng tôi để xem các phiên từ sự kiện VB Transform 2023. Đăng ký tại đây. Khi các tổ chức trên toàn thế giới đang tìm cách đánh giá nhanh chóng, thử nghiệm và triển khai trí tuệ nhân tạo tạo ra sáng tạo vào quy trình làm việc của họ – dù ở phía backend, frontend (phục vụ khách hàng) hoặc cả hai – nhiều nhà quyết định vẫn có lý lẽ lo lắng về một số vấn đề còn tồn đọng, trong đó, vấn đề về hiện tượng ảo giác của trí tuệ nhân tạo. Nhưng một startup mới, Gleen AI, đã xuất hiện và tuyên bố “giải quyết hiện tượng ảo giác,” theo lời Ashu Dubey, CEO và đồng sáng lập của Gleen, người đã phỏng vấn riêng với VentureBeat qua cuộc gọi video. Hôm nay, Gleen AI công bố vòng gọi vốn trị giá 4,9 triệu đô la từ Slow Ventures, 6th Man Ventures, South Park Commons, Spartan Group và các công ty mạo hiểm và nhà đầu tư thiên thần khác, bao gồm cựu phó phòng quản lý sản phẩm của Facebook/Meta Platforms Sam Lessin, để tiếp tục phát triển phần mềm lớp dữ liệu chống hiện tượng ảo giác cho các doanh nghiệp, đầu tiên nhắm mục tiêu hỗ trợ cấu hình mô hình trí tuệ nhân tạo nhằm cung cấp hỗ trợ khách hàng. Vấn đề với hiện tượng ảo giác Công cụ trí tuệ nhân tạo tạo ra như các mô hình ngôn ngữ lớn phổ biến (LLM) như ChatGPT, Claude 2, LLaMA 2, Bard và các mô hình khác được đào tạo để phản hồi các thăm dò và câu hỏi được người dùng nhập vào bằng cách tạo ra dữ liệu được liên kết với từ và ý tưởng mà người dùng đã nhập. Tuy nhiên, mô hình trí tuệ nhân tạo không luôn luôn chính xác, và trong nhiều trường hợp, chúng tạo ra thông tin không chính xác hoặc không liên quan nhưng đã liên kết trước đây với những gì người dùng đã nói. Một ví dụ mới đây, ChatGPT cố gắng trả lời “khi nào Trái Đất che Mặt Trời?” và cung cấp một giải thích lôi cuốn mà hoàn toàn không chính xác (nguyên nhân của câu hỏi là không chính xác – Trái Đất không thể che Mặt Trời). Trong khi các câu trả lời không chính xác này có thể khiến người ta thích thú hoặc thú vị, nhưng đối với các doanh nghiệp cố gắng nhờ vào chúng để tạo ra dữ liệu chính xác cho nhân viên hoặc người dùng, kết quả có thể rất nguy hiểm – đặc biệt đối với thông tin được điều chỉnh chặt chẽ đòi hỏi an toàn trong lĩnh vực chăm sóc sức khỏe, y tế, công nghiệp nặng và các ngành khác. Những gì Gleen làm để ngăn chặn hiện tượng ảo giác “Những gì chúng tôi làm là, khi chúng tôi gửi dữ liệu (từ người dùng) đến một LLM, chúng tôi đưa ra những sự kiện có thể tạo ra một câu trả lời tốt,” Dubey nói. “Nếu chúng tôi không tin rằng mình có đủ dữ liệu, chúng tôi sẽ không gửi dữ liệu đến LLM.” Cụ thể, Gleen đã tạo ra một lớp trí tuệ nhân tạo và học máy độc lập với bất kỳ LLM nào mà khách hàng doanh nghiệp muốn triển khai. Lớp này lọc qua an toàn và dữ liệu nội bộ của doanh nghiệp, biến nó thành một cơ sở dữ liệu vector và sử dụng dữ liệu này để cải thiện chất lượng câu trả lời của mô hình trí tuệ nhân tạo. Gleen tiến tới lập biểu đồ để hiểu quan hệ giữa các đối tượng. Biểu đồ này giúp tìm ra các sự kiện liên quan nhất cho một truy vấn cụ thể. Kiểm tra câu trả lời của LLM dựa trên các sự kiện được chọn lọc trước khi cung cấp kết quả. Nếu không có bằng chứng, chatbot sẽ nói “Tôi không biết” thay vì rủi ro hiện tượng ảo giác. Lớp trí tuệ nhân tạo hoạt động như một điểm kiểm tra, so sánh câu trả lời của LLM trước khi chúng được cung cấp cho người dùng cuối. Điều này loại bỏ rủi ro chatbot cung cấp thông tin sai lệch hay tạo ra thông tin gian dối. Đó giống như có một người quản lý kiểm soát chất lượng cho chatbot. “Chúng tôi chỉ sử dụng LLM khi chúng tôi tin chắc rằng các sự kiện là đầy đủ,” Dubey giải thích. “Nếu không, chúng tôi sẽ rõ ràng rằng cần nhiều thông tin hơn từ người dùng.” Phần mềm của Gleen cũng cho phép người dùng nhanh chóng tạo ra chatbot hỗ trợ khách hàng cho khách hàng của mình và điều chỉnh “nhân cách” của chúng tùy thuộc vào trường hợp sử dụng. Giải pháp của Gleen không phụ thuộc vào mô hình trí tuệ nhân tạo và có thể hỗ trợ các mô hình hàng đầu khác nhau đã có tích hợp giao diện lập trình ứng dụng (API). Đối với khách hàng muốn mô hình LLM phổ biến nhất, nó hỗ trợ mô hình GPT-3.5 Turbo của OpenAI. Đối với những khách hàng quan tâm đến dữ liệu được gửi đến công ty chủ nhà LLM, nó cũng hỗ trợ việc chạy LLaMA 2 trên các máy chủ riêng của công ty (mặc dù OpenAI đã nhiều lần nói rằng nó không thu thập hoặc sử dụng dữ liệu của khách hàng để đào tạo mô hình của mình, trừ khi khách hàng cho phép). Đối với một số khách hàng chú trọng vào bảo mật, Gleen cung cấp tùy chọn sử dụng một LLM độc quyền không liên quan đến internet công cộng. Nhưng Dubey tin rằng LLM không phải là nguồn gốc của hiện tượng ảo giác. “LLM sẽ bị ảo giác khi không có đủ sự kiện liên quan để cố lập câu trả lời,” Dubey nói. “Lớp chính xác của chúng tôi giải quyết vấn đề đó bằng cách kiểm soát các thông tin đầu vào tới LLM.” Phản hồi ban đầu là đáng khích lệ Hiện tại, kết quả cuối cùng của việc sử dụng Gleen AI là một chatbot tùy chỉnh có thể được cắm vào Slack của riêng họ hoặc xuất hiện như một đại diện hỗ trợ đối tác cuối người dùng. Gleen AI đã được sử dụng bởi các khách hàng thuộc các lĩnh vực tính toán lượng tử, tiền điện tử và các lĩnh vực công nghệ khác có tính chính xác cần thiết. “Triển khai Gleen AI gần như không tốn công sức của chúng tôi,” Estevan Vilar, hỗ trợ cộng đồng tại Matter Labs, một công ty chuyên phát triển tiền điện tử Ethereum cho doanh nghiệp. “Chúng tôi chỉ cần cung cấp một số liên kết và những phần còn lại suôn sẻ.” Gleen đang cung cấp cho các khách hàng tiềm năng một “sân chơi trí tuệ nhân tạo” miễn phí, nơi họ có thể tạo ra chatbot tùy chỉnh riêng của mình bằng cách sử dụng dữ liệu của công ty. Khi có nhiều công ty

Nguồn: https://venturebeat.com/ai/gleen-ai-arrives-with-4-9m-in-funding-to-stop-ai-hallucinations-using-enterprises-own-data/

Head over to our on-demand library to view sessions from VB Transform 2023. Register Here


As organizations around the world look to rapidly evaluate, test, and deploy generative AI into their workflows — either on the backend, front-end (customer-facing) or both — many decision-makers remain rightfully concerned about some of the lingering issues, among them, the problem of AI hallucinations.

But a new startup, Gleen AI, has burst on the scene and claims to “solve hallucination,” according to Ashu Dubey, CEO and co-founder of Gleen, who spoke to VentureBeat exclusively in a video call interview.

Today, Gleen AI announces a $4.9 million funding round from Slow Ventures, 6th Man Ventures, South Park Commons, Spartan Group, and other venture firms and angel investors including former Facebook/Meta Platforms’ VP of product management Sam Lessin, to continue building out its anti-hallucination data layer software for enterprises, which is targeted initially toward helping them configure AI models to provide customer support.

The problem with hallucinations

Generative AI tools such as the popular, commercially available large language models (LLMs) such as ChatGPT, Claude 2, LLaMA 2, Bard, and others, are trained to respond to human-entered prompts and queries by producing data that has been associated with the words and ideas the human user has entered.

Event

VB Transform 2023 On-Demand

Did you miss a session from VB Transform 2023? Register to access the on-demand library for all of our featured sessions.

 


Register Now

But the gen AI models don’t always get it right, and in many cases, produce information that is inaccurate or not relevant but that the model’s training has associated previously with something the human user has said.

One good recent example, ChatGPT trying to answer “when has the Earth eclipsed Mars?” and providing a convincing sounding explanation that is entirely inaccurate (the very premise of the question is flawed and inaccurate — the Earth can’t eclipse Mars).

While these inaccurate responses can be at times humorous or interesting, for businesses trying to rely on them to produce accurate data for employees or users, the results can be hugely risky — especially for highly-regulated, life-and-death information in healthcare, medicine, heavy industry, and others.

What Gleen does to prevent hallucinations

“What we do is, when we send data (from a user) to an LLM, we give facts that can create a good answer,” Dubey said. “If we don’t believe we have enough facts, we won’t send the data to the LLM.”

Specifically, Gleen has created proprietary AI and machine learning (ML) layer independent of whatever LLM that their enterprise customer wants to deploy.

This layer securely sifts through and enterprise’s own internal data, turning it into a vector database, and uses this data improve the quality of the the AI model’s answers.

Screenshot showing how Gleen AI’s layer is created on the user-side. Credit: Gleen AI

Gleen’s layer does the following:

  1. Aggregates structured and unstructured enterprise knowledge from multiple sources like help documentation, FAQs, product specs, manuals, wikis, forums and past chat logs.
  2. Curates and extracts key facts, eliminating noise and redundancy. Dubey said this “allows us to glean the signal from the noise.” (Also the origin of Gleen’s name.)
  3. Constructs a knowledge graph to understand relationships between entities. The graph aids in retrieving the most relevant facts for a given query.
  4. Checks the LLM’s response against the curated facts before delivering the output. If evidence is lacking, the chatbot will say “I don’t know” rather than risk hallucination.

The AI layer acts as a checkpoint, cross-checking the LLM’s response before it is delivered to the end user. This eliminates the risk of the chatbot providing false or fabricated information. It’s like having a quality control manager for chatbots.

“We only engage the LLM when we have high confidence the facts are comprehensive,” Dubey explained. “Otherwise we are transparent that more information is needed from the user.”

Gleen’s software also enables users to quickly create customer-support chatbots for their customers, and adjust their “personality” depending on the use-case.

Screenshot of Gleen AI’s bot personality control settings. Credit: Gleen AI

Gleen’s solution is AI model-agonistic, and can support any of the multiple leading models out there that have application programming interface (API) integrations.

For those customers wanting the most popular LLM, it supports OpenAI’s GPT-3.5 Turbo model. For those concerned about data being sent to the LLM host company, it also supports LLaMA 2 run on the company’s private servers (though OpenAI has repeatedly said it does not collect or use customer data to train its models, except when the customer expressly allows it).

For some security-sensitive customers, Gleen offers the option to use a proprietary LLM that never touches the open internet. But Dubey believes LLMs themselves are not the source of hallucination.

“LLMs will hallucinate when not given enough relevant facts to ground the response,” said Dubey. “Our accuracy layer solves that by controlling the inputs to the LLM.”

Early feedback is promising

Right now, the end result of a customer using Gleen is a custom chatbot that can be plugged into their own Slack or surfaced as an end-user facing support agent.

Example of a Gleen AI chatbot. Credit: GleenAI

Gleen AI is already being used by customers spanning quantum computing, crypto and other technical domains where accuracy is paramount.

“Implementing Gleen AI was close to no effort on our side,” said Estevan Vilar, community support at Matter Labs, a company dedicated to making the cryptocurrency Ethereum more enterprise friendly. “We just provided a few links, and the rest was smooth.”

Example of Gleen AI chatbot integration in Slack. Credit: Gleen AI

Gleen is offering prospective customers a free “AI playground” where they can create their own custom chatbot using their company’s data.

As more companies look to tap into the power of LLMs while mitigating their downsides, Gleen AI’s accuracy layer may offer them the path to deploying generative AI at the level of accuracy they and their customers demand.

“Our vision is every company will have an AI assistant powered by their own proprietary knowledge graph,” said Dubey. “This vector database will become as important of an asset as their website, enabling personalized automation across the entire customer lifecycle.”

VentureBeat’s mission is to be a digital town square for technical decision-makers to gain knowledge about transformative enterprise technology and transact. Discover our Briefings.


Exit mobile version