Công nghệ AI đang ngày càng phát triển với nhiều thuật ngữ kỹ thuật phức tạp. Để hiểu rõ hơn về trí tuệ nhân tạo, chúng ta cần nắm vững những khái niệm cơ bản như AI Agent, Deep Learning, Neural Network, Large Language Model, Weight, v.v.
#TechCrunchAI #TríTuệNhânTạo #CôngNghệAI #ThuậtNgữKỹThuật #DeepLearning #MạngLướiThầnKinh #MôHìnhNgônNgữLớn #TrọngLượng
Nguồn: https://techcrunch.com/2025/03/02/the-techcrunch-ai-glossary/
Trí tuệ nhân tạo là một thế giới sâu sắc và phức tạp. Các nhà khoa học làm việc trong lĩnh vực này thường dựa vào biệt ngữ và biệt ngữ để giải thích những gì họ đang làm việc. Do đó, chúng tôi thường xuyên phải sử dụng các thuật ngữ kỹ thuật đó trong phạm vi bảo hiểm của ngành công nghiệp trí tuệ nhân tạo. Đó là lý do tại sao chúng tôi nghĩ rằng sẽ rất hữu ích khi kết hợp một thuật ngữ với các định nghĩa về một số từ và cụm từ quan trọng nhất mà chúng tôi sử dụng trong các bài viết của chúng tôi.
Chúng tôi sẽ thường xuyên cập nhật thuật ngữ này để thêm các mục mới khi các nhà nghiên cứu liên tục phát hiện ra các phương pháp mới lạ để thúc đẩy biên giới của trí tuệ nhân tạo trong khi xác định các rủi ro an toàn mới nổi.
Một đại lý AI đề cập đến một công cụ sử dụng các công nghệ AI để thực hiện một loạt các nhiệm vụ thay mặt bạn – ngoài những gì mà AI Chatbot cơ bản hơn có thể làm – chẳng hạn như nộp chi phí, đặt vé hoặc bàn tại nhà hàng, hoặc thậm chí viết và duy trì mã. Tuy nhiên, như chúng tôi đã giải thích trướccó rất nhiều mảnh di chuyển trong không gian mới nổi này, vì vậy những người khác nhau có thể có nghĩa là những điều khác nhau khi họ đề cập đến một tác nhân AI. Cơ sở hạ tầng cũng vẫn đang được xây dựng để cung cấp các khả năng dự kiến. Nhưng khái niệm cơ bản ngụ ý một hệ thống tự trị có thể vẽ trên nhiều hệ thống AI để thực hiện các tác vụ nhiều bước.
Đưa ra một câu hỏi đơn giản, bộ não con người có thể trả lời mà không cần suy nghĩ quá nhiều về nó – những thứ như con vật nào cao hơn giữa hươu cao cổ và một con mèo? Nhưng trong nhiều trường hợp, bạn thường cần một cây bút và giấy để đưa ra câu trả lời đúng vì có các bước trung gian. Ví dụ, nếu một người nông dân có gà và bò, và cùng nhau chúng có 40 đầu và 120 chân, bạn có thể cần phải viết ra một phương trình đơn giản để đưa ra câu trả lời (20 con gà và 20 con bò).
Trong bối cảnh AI, lý luận chuỗi suy nghĩ cho các mô hình ngôn ngữ lớn có nghĩa là chia một vấn đề thành các bước nhỏ hơn, trung gian để cải thiện chất lượng của kết quả cuối cùng. Nó thường mất nhiều thời gian hơn để có được câu trả lời, nhưng câu trả lời có nhiều khả năng là đúng, đặc biệt là trong bối cảnh logic hoặc mã hóa. Cái gọi là mô hình lý luận được phát triển từ các mô hình ngôn ngữ lớn truyền thống và được tối ưu hóa cho tư duy suy nghĩ nhờ vào việc học củng cố.
(Nhìn thấy: Mô hình ngôn ngữ lớn)
Một tập hợp con của học máy tự cải thiện trong đó các thuật toán AI được thiết kế với cấu trúc mạng lưới thần kinh nhân tạo (ANN) nhiều lớp. Điều này cho phép họ tạo ra các mối tương quan phức tạp hơn so với các hệ thống dựa trên máy học đơn giản hơn, chẳng hạn như mô hình tuyến tính hoặc cây quyết định. Cấu trúc của các thuật toán học sâu lấy cảm hứng từ các con đường liên kết của các tế bào thần kinh trong não người.
Deep Learning AI có thể xác định các đặc điểm quan trọng trong chính dữ liệu, thay vì yêu cầu các kỹ sư của con người xác định các tính năng này. Cấu trúc cũng hỗ trợ các thuật toán có thể học hỏi từ các lỗi và, thông qua quá trình lặp lại và điều chỉnh, cải thiện đầu ra của chính chúng. Tuy nhiên, các hệ thống học tập sâu đòi hỏi rất nhiều điểm dữ liệu để mang lại kết quả tốt (hàng triệu hoặc nhiều hơn). Nó cũng thường mất nhiều thời gian hơn để đào tạo học tập sâu so với các thuật toán học máy đơn giản hơn – vì vậy chi phí phát triển có xu hướng cao hơn.
(Nhìn thấy: Mạng lưới thần kinh)
Điều này có nghĩa là đào tạo thêm một mô hình AI nhằm tối ưu hóa hiệu suất cho một nhiệm vụ hoặc khu vực cụ thể hơn so với trước đây là một tiêu điểm trong việc đào tạo của nó-thường bằng cách cung cấp dữ liệu mới, chuyên biệt (hướng đến nhiệm vụ).
Nhiều công ty khởi nghiệp AI đang lấy các mô hình ngôn ngữ lớn làm điểm khởi đầu để xây dựng một sản phẩm thương mại nhưng ganh đua để tăng cường tiện ích cho một lĩnh vực mục tiêu hoặc nhiệm vụ bằng cách bổ sung các chu kỳ đào tạo trước đó với tinh chỉnh dựa trên kiến thức và chuyên môn cụ thể về miền của họ.
(Nhìn thấy: Mô hình ngôn ngữ lớn (LLM))
Các mô hình ngôn ngữ lớn, hoặc LLM, là các mô hình AI được sử dụng bởi các trợ lý AI phổ biến, chẳng hạn như ChatgptThì ClaudeThì Song Tử của GoogleThì AI llama của MetaThì Copilot Microsofthoặc Trò chuyện le của mistral. Khi bạn trò chuyện với Trợ lý AI, bạn tương tác với một mô hình ngôn ngữ lớn xử lý trực tiếp yêu cầu của bạn hoặc với sự trợ giúp của các công cụ có sẵn khác nhau, chẳng hạn như trình duyệt web hoặc phiên dịch mã.
Trợ lý AI và LLM có thể có tên khác nhau. Chẳng hạn, GPT là mô hình ngôn ngữ lớn của Openai và TATGPT là sản phẩm trợ lý AI.
LLM là mạng lưới thần kinh sâu được làm từ hàng tỷ tham số số (hoặc trọng lượng, xem bên dưới) học được các mối quan hệ giữa các từ và cụm từ và tạo ra một đại diện của ngôn ngữ, một loại bản đồ đa chiều của các từ.
Chúng được tạo ra từ việc mã hóa các mẫu mà chúng tìm thấy trong hàng tỷ cuốn sách, bài báo và bảng điểm. Khi bạn nhắc LLM, mô hình sẽ tạo ra mẫu có khả năng phù hợp với lời nhắc. Sau đó, nó đánh giá từ tiếp theo có thể xảy ra nhất sau từ cuối cùng dựa trên những gì đã nói trước đó. Lặp lại, lặp lại, và lặp lại.
(Nhìn thấy: Mạng lưới thần kinh)
Mạng lưới thần kinh đề cập đến cấu trúc thuật toán nhiều lớp giúp nền tảng cho việc học sâu-và, rộng hơn, toàn bộ sự bùng nổ trong các công cụ AI tổng quát sau sự xuất hiện của các mô hình ngôn ngữ lớn.
Mặc dù ý tưởng lấy cảm hứng từ các con đường dày đặc của bộ não con người như một cấu trúc thiết kế để xử lý dữ liệu có từ những năm 1940, nhưng đó là sự gia tăng gần đây của phần cứng xử lý đồ họa (GPU) – thông qua ngành công nghiệp trò chơi video – thực sự mở khóa sức mạnh của lý thuyết. Những chip này đã chứng minh rất phù hợp với các thuật toán đào tạo với nhiều lớp hơn có thể trong các kỷ nguyên trước đó-cho phép các hệ thống AI dựa trên mạng lưới thần kinh đạt được hiệu suất tốt hơn nhiều trên nhiều lĩnh vực, cho dù nhận dạng giọng nói, điều hướng tự trị hay khám phá thuốc.
(Nhìn thấy: Mô hình ngôn ngữ lớn (LLM))
Trọng lượng là cốt lõi để đào tạo AI khi họ xác định mức độ quan trọng (hoặc trọng lượng) được trao cho các tính năng khác nhau (hoặc biến đầu vào) trong dữ liệu được sử dụng để đào tạo hệ thống – do đó định hình đầu ra của mô hình AI.
Nói cách khác, trọng số là các tham số số xác định những gì nổi bật nhất trong một tập dữ liệu cho nhiệm vụ đào tạo đã cho. Họ đạt được chức năng của mình bằng cách áp dụng phép nhân vào đầu vào. Đào tạo mô hình thường bắt đầu bằng các trọng số được gán ngẫu nhiên, nhưng khi quá trình mở ra, các trọng số điều chỉnh khi mô hình tìm cách đi đến một đầu ra phù hợp hơn với mục tiêu.
Ví dụ, một mô hình AI để dự đoán giá nhà được đào tạo về dữ liệu bất động sản lịch sử cho một vị trí mục tiêu có thể bao gồm trọng lượng cho các tính năng như số lượng phòng ngủ và phòng tắm, cho dù là một tài sản được tách ra, bán định cư, nếu nó có hoặc không có chỗ đậu xe, một nhà để xe, v.v.
Cuối cùng, các trọng số mà mô hình gắn vào từng đầu vào này là sự phản ánh về mức độ chúng ảnh hưởng đến giá trị của một thuộc tính, dựa trên tập dữ liệu đã cho.
[ad_2]