Những ứng dụng chatbot như ChatGPT và LLM khác: Đang hoạt động ra sao và có tiềm năng phát triển tại đâu? | TỰ ĐỘNG HÓA.

Lưu đồ phác thảo mô hình đào tạo LLM ba bước

#AI #Chatbot #LLM #Google #ChatGPT

ChatGPT và các LLM (Language Model Large) khác đang trở thành xu hướng của trí tuệ nhân tạo hiện đại. Với việc sử dụng các mô hình ngôn ngữ lớn, những công cụ này hứa hẹn sẽ thay đổi cách chúng ta tương tác với máy tính và đưa ra những giải pháp đáp ứng nhu cầu của người dùng.

Các LLM này được đào tạo thông qua lượng dữ liệu khổng lồ từ các nguồn trên mạng như Wikipedia, các diễn đàn công khai và các tài liệu mã. Việc sử dụng mạng thần kinh và các kỹ thuật học máy giúp các LLM có khả năng phát hiện mẫu để đưa ra những dự đoán đúng đắn về những từ tiếp theo sẽ xuất hiện trong câu.

Các LLM cũng được trang bị cơ chế tự chú ý, cho phép các từ trong câu có mối liên hệ phức tạp hơn. Tuy nhiên, do sử dụng các tính ngẫu nhiên và biến thể trong mã, các chatbot có thể cho ra kết quả khác nhau mỗi lần sử dụng.

Tuy nhiên, ChatGPT và Google Bard đang được đánh giá cao trong việc đưa ra những câu trả lời hợp lý và tự nhiên, đồng thời tạo ra những nguồn tài liệu sáng tạo mới. Xem xét tương lai, nó được dự đoán rằng những công cụ này sẽ tiếp tục phát triển và thay đổi cách chúng ta tương tác với máy tính trong tương lai.

Nguồn: https://www.wired.com/story/how-chatgpt-works-large-language-model/

Chatbot được hỗ trợ bởi AI như BẰNG Trò chuyệnGPTGoogle Bard chắc chắn là có một khoảnh khắc—thế hệ tiếp theo của các công cụ phần mềm đàm thoại hứa hẹn sẽ làm mọi thứ, từ chiếm lĩnh các tìm kiếm trên web của chúng tôi đến tạo ra nguồn tài liệu sáng tạo vô tận cho đến ghi nhớ tất cả kiến ​​thức của thế giới, vì vậy chúng tôi không cần phải làm như vậy.

ChatGPT, Google Bard và các bot khác giống như chúng, là những ví dụ về mô hình ngôn ngữ lớn, hoặc LLM và đáng để tìm hiểu cách chúng hoạt động. Điều đó có nghĩa là bạn sẽ có thể tận dụng chúng tốt hơn và đánh giá đúng hơn về những gì chúng giỏi (và những gì chúng thực sự không nên tin tưởng).

Giống như nhiều hệ thống trí tuệ nhân tạo—chẳng hạn như những hệ thống được thiết kế để nhận dạng giọng nói của bạn hoặc tạo ảnh mèo—các LLM được đào tạo dựa trên lượng dữ liệu khổng lồ. Các công ty đứng sau chúng đã khá thận trọng khi tiết lộ chính xác dữ liệu đó đến từ đâu, nhưng chúng ta có thể xem xét một số manh mối nhất định.

Ví dụ, bài báo nghiên cứu giới thiệu mô hình LaMDA (Mô hình ngôn ngữ cho các ứng dụng đối thoại) mà Bard đã xây dựng trên đó, đề cập đến Wikipedia, “các diễn đàn công khai” và “các tài liệu mã từ các trang web liên quan đến lập trình như trang web Hỏi & Đáp, hướng dẫn, v.v.” Trong khi đó, Reddit muốn bắt đầu sạc để truy cập vào các cuộc trò chuyện bằng văn bản trong 18 năm của nó và StackOverflow vừa được công bố cũng có kế hoạch bắt đầu tính phí. Hàm ý ở đây là các LLM đã và đang sử dụng rộng rãi cả hai trang web cho đến thời điểm này dưới dạng các nguồn, hoàn toàn miễn phí và được hỗ trợ bởi những người đã xây dựng và sử dụng các nguồn đó. Rõ ràng là rất nhiều nội dung có sẵn công khai trên web đã được các LLM thu thập và phân tích.

LLM sử dụng kết hợp học máy và đầu vào của con người.

OpenAI qua David Nield

Tất cả dữ liệu văn bản này, bất kể nó đến từ đâu, đều được xử lý thông qua mạng thần kinh, một loại công cụ AI thường được sử dụng bao gồm nhiều nút và lớp. Các mạng này liên tục điều chỉnh cách chúng diễn giải và hiểu ý nghĩa của dữ liệu dựa trên nhiều yếu tố, bao gồm kết quả của quá trình thử và sai trước đó. Hầu hết các LLM sử dụng một kiến ​​trúc mạng thần kinh cụ thể gọi là máy biến áp, có một số thủ thuật đặc biệt phù hợp với xử lý ngôn ngữ. (GPT đó sau Trò chuyện là viết tắt của Generative Pretraining Transformer.)

Cụ thể, một máy biến áp có thể đọc một lượng lớn văn bản, phát hiện các mẫu về cách các từ và cụm từ liên quan với nhau, sau đó đưa ra dự đoán về những từ nào sẽ xuất hiện tiếp theo. Bạn có thể đã nghe LLM được so sánh với các công cụ tự động sửa lỗi tăng áp và điều đó thực sự không quá xa vời: ChatGPT và Bard không thực sự “biết” bất cứ điều gì, nhưng họ rất giỏi trong việc tìm ra từ nào theo sau từ nào bắt đầu trông giống như suy nghĩ và sáng tạo thực sự khi nó đạt đến giai đoạn đủ nâng cao.

Một trong những cải tiến quan trọng của các máy biến áp này là cơ chế tự chú ý. Thật khó để giải thích trong một đoạn văn, nhưng về bản chất, điều đó có nghĩa là các từ trong câu không được xem xét một cách cô lập mà còn liên quan đến nhau theo nhiều cách phức tạp. Nó cho phép đạt được mức độ hiểu biết cao hơn mức có thể.

Có một số tính ngẫu nhiên và biến thể được tích hợp trong mã, đó là lý do tại sao bạn sẽ không nhận được phản hồi giống nhau từ một chatbot biến hình mỗi lần. Ý tưởng tự động sửa lỗi này cũng giải thích cách lỗi có thể len ​​lỏi vào. Ở cấp độ cơ bản, ChatGPT và Google Bard không biết điều gì chính xác và điều gì không. Họ đang tìm kiếm những câu trả lời có vẻ hợp lý và tự nhiên, đồng thời phù hợp với dữ liệu mà họ đã được đào tạo.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *