Những yếu tố cơ bản cần thiết cho hệ thống AI của doanh nghiệp

Hãy tham gia cùng chúng tôi trong các bản tin hàng ngày và hàng tuần để cập nhật thông tin mới nhất và nội dung độc quyền về bảo mật AI hàng đầu ngành. Tìm hiểu thêm Đọc thêm bài viết này trong “Fit for Purpose: Tailoring AI Infrastructure” trên trang web của chúng tôi. Đến giữa những năm 2020, các doanh nghiệp mọi quy mô và lĩnh vực đều ngày càng quan tâm đến việc áp dụng trí tuệ nhân tạo sinh sản để tăng hiệu suất và giảm thời gian tiêu tốn vào những công việc lặp đi lặp lại. Trong một số trường hợp, việc sở hữu một ứng dụng hoặc trợ lý trí tuệ nhân tạo đã nhanh chóng trở thành điều “cần có” thay vì “tốt có”. Nhưng cơ sở hạ tầng tối thiểu cần thiết để đạt được những lợi ích này là gì? Dù bạn là một tổ chức lớn hay một doanh nghiệp nhỏ, hiểu rõ những thành phần cơ bản của một giải pháp AI là rất quan trọng. Hướng dẫn này – được tổ chức bởi các chuyên gia trong lĩnh vực bao gồm các chuyên gia từ Hugging Face và Google – chỉ ra các yếu tố chính, từ lưu trữ dữ liệu và tích hợp mô hình ngôn ngữ lớn (LLM) đến các tài nguyên phát triển, chi phí và tiến độ, giúp bạn đưa ra quyết định có kiến thức. Lưu trữ dữ liệu và quản lý dữ liệu Nền tảng của bất kỳ hệ thống gen AI hiệu quả nào đó là dữ liệu – cụ thể là dữ liệu của công ty bạn, hoặc ít nhất, dữ liệu liên quan đến doanh nghiệp và/hoặc mục tiêu của bạn. Đúng, doanh nghiệp của bạn có thể ngay lập tức sử dụng các chatbot sẵn có được cung cấp bởi các mô hình ngôn ngữ lớn (LLMs) như Gemini của Google, ChatGPT của OpenAI, Claude của Anthropic hoặc các chatbot khác dễ dàng tìm thấy trên web – có thể giúp bạn với các nhiệm vụ cụ thể của công ty. Và điều này có thể thực hiện mà không cần nhập bất kỳ dữ liệu công ty nào. Tuy nhiên, trừ khi bạn cung cấp những dữ liệu này cho công ty của bạn – điều có thể bị cấm vì lý do bảo mật hoặc chính sách công ty – bạn sẽ không thể hưởng tất cả các lợi ích mà LLMs có thể cung cấp. Vì vậy, bước đầu tiên trong việc phát triển bất kỳ sản phẩm AI hữu ích nào để doanh nghiệp của bạn sử dụng, bên trong hoặc bên ngoài, là hiểu rõ dữ liệu bạn có và có thể chia sẻ với một LLM, có thể là một cái công cộng hoặc riêng bạn kiểm soát trên máy chủ của bạn và nó đang nằm ở đâu. Cũng như nó có ở có cấu trúc hay không. Dữ liệu có cấu trúc có tổ chức thường trong cơ sở dữ liệu và bảng tính, với các trường được xác định rõ như ngày, số và mục nhập văn bản. Ví dụ, bản ghi tài chính hoặc dữ liệu khách hàng phù hợp vào hàng và cột là các ví dụ về dữ liệu có cấu trúc. Dữ liệu không có cấu trúc, ngược lại, thiếu một định dạng nhất quán và không được tổ chức theo một cách xác định trước. Nó bao gồm các loại nội dung khác nhau như email, video, bài đăng trên mạng xã hội và tài liệu, không phù hợp dễ dàng vào cơ sở dữ liệu truyền thống. Loại dữ liệu này khó khăn hơn để phân tích do tính đa dạng và không chuẩn của nó. Dữ liệu này có thể bao gồm mọi thứ từ tương tác với khách hàng và chính sách nhân sự đến các bản ghi bán hàng và tài liệu đào tạo. Tuỳ thuộc vào trường hợp sử dụng của bạn cho AI – phát triển sản phẩm nội bộ cho nhân viên hoặc bên ngoài cho khách hàng – hướng bạn đi sẽ có khả năng thay đổi. Hãy xem xét một doanh nghiệp đồ nội thất giả mạo – “Công ty ghế” – sản xuất ghế cho người tiêu dùng và doanh nghiệp từ gỗ. Công ty Ghế muốn tạo ra một chatbot nội bộ cho nhân viên sử dụng có thể trả lời các câu hỏi phổ biến như làm cách nào để nộp các chi phí, làm thế nào để yêu cầu nghỉ phép và tập tin nào để xây dựng các chiếc ghế được đặt ở đâu. Công ty Ghế có thể trong trường hợp này đã lưu trữ những tập tin này trên dịch vụ đám mây như Google Cloud, Microsoft Azure hoặc AWS. Đối với nhiều doanh nghiệp, tích hợp khả năng trí tuệ nhân tạo trực tiếp vào các nền tảng đám mây hiện có có thể đơn giản hóa đáng kể quá trình triển khai. Google Workspace, kết hợp với Vertex AI, cho phép doanh nghiệp tận dụng dữ liệu hiện có của mình trên các công cụ năng suất như Docs và Gmail. Người phát ngôn Google giải thích với VentureBeat, “Với Model Garden của Vertex AI, các doanh nghiệp có thể chọn từ hơn 150 mô hình được xây dựng sẵn để phù hợp với nhu cầu cụ thể của họ, tích hợp chúng một cách liền mạch vào các quy trình công việc của họ. Sự tích hợp này cho phép tạo ra các đại lý tùy chỉnh trong các ứng dụng Google Workspace, tăng cường tiến trình và giải phóng thời gian quý báu cho nhân viên.” Ví dụ, Bristol Myers Squibb đã sử dụng Vertex AI để tự động hóa quy trình tài liệu trong các cuộc thử nghiệm lâm sàng của họ, chứng minh sức mạnh của những tích hợp này có thể biến đổi hoạt động kinh doanh. Đối với các công ty nhỏ hoặc những người mới với AI, việc tích hợp này cung cấp một điểm khởi đầu thân thiện với người dùng để tận dụng sức mạnh của AI mà không cần có chi phí kỹ thuật rộng lớn. Nhưng nếu công ty chỉ lưu trữ dữ liệu trên mạng nội bộ hoặc máy chủ riêng, thì Công ty Ghế – hoặc bất kỳ công ty nào có tình huống tương tự – vẫn có thể tận dụng LLM và xây dựng một chatbot để trả lời các câu hỏi công ty. Tuy nhiên, họ có khả năng muốn triển khai một trong nhiều mô hình mã nguồn mở có sẵn từ cộng đồng lập trình Hugging Face thay vì. “Nếu bạn đang ở trong một ngành công nghiệp nằm trong cách quy hoạch nghiêm ngặt như ngân hàng hoặc chăm sóc sức khỏe, bạn có thể cần chạy tất cả mọi thứ trong nhà,” giải thích Jeff Boudier, trưởng bộ phận sản phẩm và phát triển tại Hugging Face, trong một cuộc phỏng vấn gần đây với VentureBeat. “Trong những trường hợp như vậy, bạn vẫn có thể sử dụng các công cụ mã nguồn mở được lưu trữ trên cơ sở hạ tầng của riêng bạn.” Biệt thự đã ghi lại video demo sau cho VentureBeat cho thấy cách sử dụng trang web và các mô hình và công cụ có sẵn từ Hugging Face để tạo ra một trợ lý AI cho một công ty. Một Mô Hình Ngôn Ngữ Lớn (LLM) Khi bạn đã xác định được dữ liệu công ty bạn có thể và muốn cấp cho một sản phẩm AI, bước tiếp theo là chọn mô hình ngôn ngữ lớn (LLM) bạn muốn để nâng cấp nó. Chọn mô hình LLM phù hợp là bước quan trọng trong việc xây dựng cơ sở hạ tầng AI của bạn. Các mô hình LLM như GPT-4 của OpenAI, DialogFlow của Google và các mô hình mã nguồn mở được lưu trữ trên Hugging Face cung cấp các khả năng và mức độ tùy chỉnh khác nhau. Lựa chọn phụ thuộc vào nhu cầu cụ thể, lo ngại về bảo mật dữ liệu và ngân sách của bạn. Những người có trách nhiệm quản lý và triển khai tích hợp AI trong một công ty sẽ cần đánh giá và so sánh các LLMs khác nhau, điều họ có thể làm bằng cách sử dụng các trang web và dịch vụ như LMSYS Chatbot Arena Leaderboard trên Hugging Face. Nếu bạn chọn con đường của một LLM độc quyền như dòng GPT của OpenAI, gia đình Claude của Anthropic hoặc dòng Gemini của Google, bạn sẽ cần tìm và kết nối LLM vào cơ sở dữ liệu của bạn thông qua giao diện lập trình ứng dụng (API) riêng tư của nhà cung cấp LLM. Trong khi đó, nếu Công ty Ghế hoặc doanh nghiệp của bạn muốn lưu trữ một mô hình trên cơ sở hạ tầng riêng của mình để tăng cường sự kiểm soát và bảo mật dữ liệu, thì một LLM mã nguồn mở có lẽ là con đường bạn nên chọn. Như Boudier giải thích, “Lợi ích chính của các mô hình mã nguồn mở là bạn có thể lưu trữ chúng mình. Điều này đảm bảo hành vi của ứng dụng của bạn vẫn giữ nguyên, ngay cả khi mô hình ban đầu được cập nhật hoặc thay đổi. ” Đã có, VentureBeat đã báo cáo về số lượng doanh nghiệp ngày càng tăng sử dụng mô hình LLM và AI mã nguồn mở từ các nhà cung cấp và nhà phát triển độc lập như Meta’s Llama và các nhà cung cấp khác. Khung RAG Để một chatbot hoặc hệ thống AI cung cấp câu trả lời chính xác và liên quan, tích hợp một khung RAG (retrieval augmented generation) là thiết yếu. Điều này bao gồm sử dụng người lấy để tìm kiếm các tài liệu liên quan dựa trên các truy vấn của người dùng và một bộ tạo ra (một LLM) để tổng hợp thông tin vào các câu trả lời hợp lý. Triển khai một khung RAG yêu cầu một cơ sở dữ liệu vector như Pinecone hoặc Milvus, lưu trữ các nhúng tài liệu – các biểu diễn có cấu trúc của dữ liệu của bạn làm cho AI dễ dàng tìm kiếm thông tin liên quan. Khung RAG đặc biệt hữu ích cho các doanh nghiệp cần tích hợp dữ liệu công ty độc quyền được lưu trữ ở các định dạng khác nhau, như PDF, tài liệu Word và bảng tính. Phương pháp này cho phép AI lấy dữ liệu liên quan một cách động, đảm bảo rằng các câu trả lời luôn được cập nhật và chính xác về mặt bối cảnh. Theo Boudier, “Tạo ra nhúng hoặc biểu diễn dạng véc-tơ cho tài liệu là bước quan trọng trong việc làm cho dữ liệu dễ tiếp cận đối với AI. Biểu diễn trung gian này cho phép AI nhanh chóng truy xuất và sử dụng thông tin, cho dù đó là tài liệu dựa trên văn bản hoặc thậm chí là hình ảnh và sơ đồ.” Kiến thức và tài nguyên phát triển Mặc dù các nền tảng AI ngày càng dễ sử dụng, một số kiến thức kỹ thuật vẫn cần thiết cho việc triển khai. Dưới đây là một phân tích về những gì bạn có thể cần: Thiết lập Cơ bản: Đối với triển khai đơn giản sử dụng các mô hình đã được xây dựng sẵn và các dịch vụ đám mây, nhân viên IT hiện có của bạn với một số đào tạo AI nên đủ để đáp ứng nhu cầu này. Phát triển Tùy chỉnh: Đối với những nhu cầu phức tạp hơn, như điều chỉnh các mô hình hoặc tích hợp sâu vào quá trình kinh doanh, bạn sẽ cần các nhà Nguồn: https://venturebeat.com/ai/whats-the-minimum-viable-infrastructure-your-enterprise-needs-for-ai/

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


This article is part of a VB Special Issue called “Fit for Purpose: Tailoring AI Infrastructure.” Catch all the other stories here.

As we approach the midpoint of the 2020s decade, enterprises of all sizes and sectors are increasingly looking at how to adopt generative AI to increase efficiencies and reduce time spent on repetitive, onerous tasks.

In some ways, having some sort of generative AI application or assistant is rapidly moving from becoming a “nice to have” to a “must have.”

But what is the minimum viable infrastructure needed to achieve these benefits? Whether you’re a large organization or a small business, understanding the essential components of an AI solution is crucial.

This guide — informed by leaders in the sector including experts at Hugging Face and Google — outlines the key elements, from data storage and large language model (LLM) integration to development resources, costs and timelines, to help you make informed decisions.

>>Don’t miss our special issue: Fit for Purpose: Tailoring AI Infrastructure.<<

Data storage and data management

The foundation of any effective gen AI system is data — specifically your company’s data, or at least, data that is relevant to your firm’s business and/or goals.

Yes, your business can immediately use off-the-shelf chatbots powered by large language models (LLMs) such as Google’s Gemini, OpenAI’s ChatGPT, Anthropic Claude or other chatbots readily available on the web — which may assist with specific company tasks. And it can do so without inputting any company data.

However, unless you feed these your company’s data — which may not be allowed due to security concerns or company policies — you won’t be able to reap the full benefits of what LLMs can offer.

So step one in developing any helpful AI product for your company to use, internally or externally, is understanding what data you have and can share with an LLM, whether that be a public or private one you control on your own servers and where it is located. Also whether it is structured or unstructured.

Structured data is organized typically in databases and spreadsheets, with clearly defined fields like dates, numbers and text entries. For instance, financial records or customer data that fit neatly into rows and columns are examples of structured data.

Unstructured data, on the other hand, lacks a consistent format and is not organized in a predefined manner. It includes various types of content like emails, videos, social media posts and documents, which do not fit easily into traditional databases. This type of data is more challenging to analyze due to its diverse and non-uniform nature.

This data can include everything from customer interactions and HR policies to sales records and training materials. Depending on your use case for AI — developing products internally for employees or externally for customers — the route you go will likely change.

Let’s take a hypothetical furniture maker — the “Chair Company” — that makes chairs for consumers and businesses out of wood.

This Chair Company wants to create an internal chatbot for employees to use that can answer common questions such as how to file expenses, how to request time off and where files for building chairs are located.

The Chair Company may in this case already have these files stored on a cloud service such as Google Cloud, Microsoft Azure or AWS. For many businesses, integrating AI capabilities directly into existing cloud platforms can significantly simplify the deployment process.

Google Workspace, combined with Vertex AI, enables enterprises to leverage their existing data across productivity tools like Docs and Gmail.

A Google spokesperson explained to VentureBeat, “With Vertex AI’s Model Garden, businesses can choose from over 150 pre-built models to fit their specific needs, integrating them seamlessly into their workflows. This integration allows for the creation of custom agents within Google Workspace apps, streamlining processes and freeing up valuable time for employees.”

For example, Bristol Myers Squibb used Vertex AI to automate document processes in their clinical trials, demonstrating how powerful these integrations can be in transforming business operations. For smaller businesses or those new to AI, this integration provides a user-friendly entry point to harness the power of AI without extensive technical overhead.

But what if the company has data stored only on an intranet or local private servers? The Chair Company — or any other in a similar boat — can still leverage LLMs and build a chatbot to answer company questions. However, they will likely want to deploy one of many open-source models available from the coding community Hugging Face instead.

“If you’re in a highly regulated industry like banking or healthcare, you might need to run everything in-house,” explained Jeff Boudier, head of product and growth at Hugging Face, in a recent interview with VentureBeat. “In such cases, you can still use open-source tools hosted on your own infrastructure.”

Boudier recorded the following demo video for VentureBeat showing how to use Hugging Face’s website and available models and tools to create an AI assistant for a company.

A Large Language Model (LLM)

Once you’ve determined what company data you can and want to feed into an AI product, the next step is selecting which large language model (LLM) you wish to power it.

Choosing the right LLM is a critical step in building your AI infrastructure. LLMs such as OpenAI’s GPT-4, Google’s DialogFlow, and the open models hosted on Hugging Face offer different capabilities and levels of customization. The choice depends on your specific needs, data privacy concerns and budget.

Those charged with overseeing and implementing AI integration at a company will need to assess and compare different LLMs, which they can do using websites and services such as the LMSYS Chatbot Arena Leaderboard on Hugging Face.

If you go the route of a proprietary LLM such as OpenAI’s GPT series, Anthropic’s Claude family or Google’s Gemini series, you’ll need to find and plug the LLM into your database via the LLM provider’s private application programming interface (API).

Meanwhile, if the Chair Company or your business wants to host a model on its own private infrastructure for enhanced control and data security, then an open-source LLM is likely the way to go.

As Boudier explains, “The main benefit of open models is that you can host them yourself. This ensures that your application’s behavior remains consistent, even if the original model is updated or changed.”

Already, VentureBeat has reported on the growing number of businesses adopting open source LLMs and AI models from the likes of Meta’s Llama and other providers and independent developers.

Retrieval-Augmented Generation (RAG) framework

For a chatbot or AI system to provide accurate and relevant responses, integrating a retrieval augmented generation (RAG) framework is essential.

This involves using a retriever to search for relevant documents based on user queries and a generator (an LLM) to synthesize the information into coherent responses.

Implementing an RAG framework requires a vector database like Pinecone or Milvus, which stores document embeddings—structured representations of your data that make it easy for the AI to retrieve relevant information.

The RAG framework is particularly useful for enterprises that need to integrate proprietary company data stored in various formats, such as PDFs, Word documents and spreadsheets.

This approach allows the AI to pull relevant data dynamically, ensuring that responses are up-to-date and contextually accurate.

According to Boudier, “Creating embeddings or vectorizing documents is a crucial step in making data accessible to the AI. This intermediate representation allows the AI to quickly retrieve and utilize information, whether it’s text-based documents or even images and diagrams.”

Development expertise and resources

While AI platforms are increasingly user-friendly, some technical expertise is still required for implementation. Here’s a breakdown of what you might need:

  • Basic Setup: For straightforward deployment using pre-built models and cloud services, your existing IT staff with some AI training should suffice.
  • Custom Development: For more complex needs, such as fine-tuning models or deep integration into business processes, you’ll need data scientists, machine learning engineers, and software developers experienced in NLP and AI model training.

For businesses lacking in-house resources, partnering with an external agency is a viable option. Development costs for a basic chatbot range from $15,000 to $30,000, while more complex AI-driven solutions can exceed $150,000.

“Building a custom AI model is accessible with the right tools, but you’ll need technical expertise for more specialized tasks, like fine-tuning models or setting up a private infrastructure,” Boudier noted. “With Hugging Face, we provide the tools and community support to help businesses, but having or hiring the right talent is still essential for successful implementation.”

For businesses without extensive technical resources, Google’s AppSheet offers a no-code platform that allows users to create custom applications by simply describing their needs in natural language. Integrated with AI capabilities like Gemini, AppSheet enables rapid development of tools for tasks such as facility inspections, inventory management and approval workflows—all without traditional coding skills. This makes it a powerful tool for automating business processes and creating customized chatbots.

Time and budget considerations

Implementing an AI solution involves both time and financial investment. Here’s what to expect:

  • Development Time: A basic chatbot can be developed in 1-2 weeks using pre-built models. However, more advanced systems that require custom model training and data integration may take several months.
  • Cost: For in-house development, budget around $10,000 per month, with total costs potentially reaching $150,000 for complex projects. Subscription-based models offer more affordable entry points, with costs ranging from $0 to $5,000 per month depending on features and usage.

Deployment and maintenance

Once developed, your AI system will need regular maintenance and updates to stay effective. This includes monitoring, fine-tuning and possibly retraining the model as your business needs and data evolve. Maintenance costs can start at $5,000 per month, depending on the complexity of the system and the volume of interactions.

If your enterprise operates in a regulated industry like finance or healthcare, you may need to host the AI system on private infrastructure to comply with data security regulations. Boudier explained, “For industries where data security is paramount, hosting the AI model internally ensures compliance and full control over data and model behavior.”

Final takeaways

To set up a minimum viable AI infrastructure for your enterprise, you need:

  • Cloud Storage and Data Management: Organize and manage your data efficiently using an intranet, private servers, private clouds, hybrid clouds or commercial cloud platforms like Google Cloud, Azure or AWS.
  • A Suitable LLM: Choose a model that fits your needs, whether hosted on a cloud platform or deployed on private infrastructure.
  • A RAG Framework: Implement this to dynamically pull and integrate relevant data from your knowledge base.
  • Development Resources: Consider in-house expertise or external agencies for building, deploying, and maintaining your AI system.
  • Budget and Time Allocation: Prepare for initial costs ranging from $15,000 to $150,000 and development time of a few weeks to several months, depending on complexity.
  • Ongoing Maintenance: Regular updates and monitoring are necessary to ensure the system remains effective and aligned with business goals.

By aligning these elements with your business needs, you can create a robust AI solution that drives efficiency, automates tasks, and provides valuable insights—all while maintaining control over your technology stack.

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *