Thuật ngữ AI, giải thích dễ hiểu cho mọi người

Tiếng Việt:
Thuật ngữ trong lĩnh vực Trí tuệ nhân tạo, giải thích cho con người Trí tuệ nhân tạo (AI) đang là điều hot nhất trong công nghệ – có vẻ như mỗi công ty đều nói về cách họ đang tiến bộ thông qua việc sử dụng hoặc phát triển AI. Nhưng lĩnh vực AI cũng chứa đựng rất nhiều thuật ngữ mà có thể khá khó hiểu để thực sự biết xảy ra điều gì với mỗi tiến triển mới.

Để giúp bạn hiểu rõ hơn về những gì đang xảy ra, chúng tôi đã tổng hợp danh sách một số thuật ngữ AI phổ biến nhất. Chúng tôi sẽ cố gắng giải thích ý nghĩa của chúng và tại sao chúng quan trọng.

AI chính là gì? Trí tuệ nhân tạo: Thường được viết tắt thành AI, thuật ngữ “trí tuệ nhân tạo” kỹ thuật là ngành khoa học máy tính chuyên về việc tạo ra hệ thống máy tính có thể tư duy như con người. Tuy nhiên, hiện nay, chúng ta thường nghe về AI như là một công nghệ hoặc thậm chí một thực thể, và điều đó có nghĩa là gì thì khó nắm bắt hơn.

Nhiều công ty thường nói rằng họ đang đầu tư vào AI từ nhiều năm. Điều này liên quan đến cách nhiều sản phẩm của họ được cải thiện bởi trí tuệ nhân tạo và cách công ty cung cấp các công cụ như Gemini có vẻ thông minh. Cũng có các mô hình AI cơ bản làm nền tảng cho nhiều công cụ AI, như GPT của OpenAI. Tiếp theo, có Mark Zuckerberg, CEO của Meta, đã sử dụng AI như một loại danh từ để chỉ các chatbot cá nhân.

Một số thuật ngữ bạn có thể gặp trong bài viết hoặc về tiếp thị AI có thể trở nên phức tạp hơn. Để giúp bạn hiểu rõ hơn, tôi đã tổng hợp một bài viết về nhiều thuật ngữ quan trọng trong trí tuệ nhân tạo đang được nhiều người đề cập tới. Cuối cùng, tất cả đều xoay quanh việc cố gắng làm cho máy tính thông minh hơn.

Học máy: Các hệ thống học máy được huấn luyện (chúng sẽ giải thích thêm về việc huấn luyện sau) trên dữ liệu để họ có thể đưa ra dự đoán về thông tin mới. Điều này cho phép họ “học”. Học máy là một lĩnh vực trong trí tuệ nhân tạo và quan trọng đối với nhiều công nghệ AI.

Trí tuệ nhân tạo tổng quát (AGI): Trí tuệ nhân tạo mà thông minh hoặc thông minh hơn con người. Điều này có thể là công nghệ mạnh mẽ, nhưng đối với nhiều người, đây cũng là khía cạnh đáng sợ nhất về khả năng của AI – hãy nghĩ về tất cả các bộ phim mà chúng ta đã xem về các máy móc siêu thông minh thống trị thế giới! Ngoài ra, còn có công việc đang được thực hiện về “trí tuệ siêu việt”, hoặc AI thông minh hơn nhiều so với con người._GENERATE_HASHTAGS
Bạn có thể nghe nhiều người nói về mô hình. Đó là gì?
Mô hình AI: Các mô hình AI được huấn luyện dựa trên dữ liệu để họ có thể thực hiện các nhiệm vụ hoặc đưa ra quyết định mà không cần sự can thiệp của con người.

Mô hình ngôn ngữ lớn, hoặc LLMs: Một loại mô hình AI có thể xử lý và tạo ra văn bản ngôn ngữ tự nhiên. Claude của Anthropic, mà theo công ty, là “một trợ lý hữu ích, chân thành và vô hại với một dạng trò chuyện,” là một ví dụ về LLM.

Mô hình truyền dẫn: Các mô hình AI có thể được sử dụng để tạo ra hình ảnh từ thông tin văn bản. Họ được huấn luyện bằng cách thêm tiếng ồn – như tĩnh điện – vào một hình ảnh rồi đảo ngược quá trình này để AI đã học được cách tạo ra một hình ảnh rõ ràng.

Mô hình nền tảng: Các mô hình AI tạo ra thông qua một lượng lớn dữ liệu và, do đó, có thể là nền tảng cho nhiều ứng dụng mà không cần huấn luyện cụ thể cho các công việc đó. (Thuật ngữ này được đặt tên bởi các nhà nghiên cứu tại Đại học Stanford vào năm 2021.) GPT của OpenAI, Gemini của Google, Llama của Meta và Claude của Anthropic đều là ví dụ về mô hình nền tảng. Nhiều công ty cũng đang trình bày mô hình AI của họ như là đa phương tiện, có nghĩa là chúng có thể xử lý nhiều loại dữ liệu, chẳng hạn như văn bản, hình ảnh và video.

Mô hình ranh giới: Ngoài các mô hình nền tảng, các công ty AI đang làm việc vào những gì họ gọi là “mô hình ranh giới,” một thuật ngữ tiếp thị dành cho các phiên bản cũng như tương lai của mô hình của họ. Tưởng tượng, các mô hình này có thể mạnh mẽ hơn rất nhiều so với các mô hình AI hiện có, mặc dù cũng có nguy cơ rằng chúng có thể tạo ra rủi ro đáng kể.

Nhưng làm sao mà các mô hình AI có thể thu thập tất cả thông tin đó? Họ được huấn luyện như thế nào?
Chúng được huấn luyện. Huấn luyện là quá trình mà các mô hình AI học cách hiểu dữ liệu ở những cách cụ thể bằng cách phân tích các bộ dữ liệu để họ có thể đưa ra dự đoán và nhận biết các mẫu. Ví dụ, các mô hình ngôn ngữ lớn đã được huấn luyện bằng cách “đọc” rất nhiều văn bản. Điều này có nghĩa rằng khi các công cụ AI như ChatGPT đáp ứng yêu cầu của bạn, chúng có thể “hiểu” những gì bạn nói và đưa ra câu trả lời giống như ngôn ngữ của con người và giải quyết vấn đề bạn đặt ra.

Huấn luyện thường đòi hỏi một lượng lớn tài nguyên và công suất tính toán, và nhiều công ty dựa vào GPU mạnh để giúp quá trình huấn luyện này. Các mô hình AI có thể được cung cấp các loại dữ liệu khác nhau, thường là ở cỡ lớn, như văn bản, hình ảnh, âm nhạc và video. Điều này – đương nhiên – được gọi là dữ liệu huấn luyện.

Parameters, nói ngắn gọn, là các biến trong mô hình AI học từ quá trình huấn luyện của chúng. Mô tả tốt nhất mà tôi đã thấy về ý nghĩa thực sự của điều đó đến từ Helen Toner, giám đốc chiến lược và dự án nghiên cứu cơ sở tại Trung tâm Công nghệ An ninh và Nổi lên của Đại học Georgetown và là một cựu thành viên Hội đồng OpenAI:
Parameters là các con số bên trong một mô hình AI quyết định cách mà một đầu vào (ví dụ: một đoạn văn bản gợi ý) được chuyển đổi thành một đầu ra (ví dụ: từ tiếp theo sau đoạn văn bản gợi ý). Quá trình “huấn luyện” một mô hình AI bao gồm việc sử dụng các kỹ thuật tối ưu toán học để điều chỉnh giá trị tham số của mô hình lặp đi lặp lại cho đến khi mô hình rất tốt trong việc chuyển đầu vào thành đầu ra.

Nói cách khác, các tham số của mô hình AI giúp xác định câu trả lời mà chúng sẽ đưa ra cho bạn. Các công ty đôi khi khoe về số tham số của một mô hình như một cách để chứng minh sự phức tạp của mô hình đó.

Có các thuật ngữ khác mà tôi có thể gặp không?
Xử lý ngôn ngữ tự nhiên (NLP): Khả năng cho máy móc hiểu ngôn ngữ con người nhờ vào học máy. GPT-Chat của OpenAI là một ví dụ cơ bản: nó có thể hiểu các yêu cầu văn bản của bạn và tạo ra văn bản phản hồi. Một công cụ mạnh mẽ khác có thể thực hiện NLP là công nghệ nhận dạng tiếng nói Whisper của OpenAI, mà công ty được cho là đã sử dụng để ghi chép âm thanh từ hơn 1 triệu giờ video YouTube để giúp huấn luyện GPT-4.

Tính khẳng định: Khi một ứng dụng trí tuệ Nhân tạo sinh ra thực sự điều gì đó, như ChatGPT phản hồi một yêu cầu về…

#AIterminology #trítuệnhântạo #họituvấnhà

Nguồn: https://www.theverge.com/24201441/ai-terminology-explained-humans

Artificial intelligence is the hot new thing in tech — it feels like every company is talking about how it’s making strides by using or developing AI. But the field of AI is also so filled with jargon that it can be remarkably difficult to understand what’s actually happening with each new development.

To help you better understand what’s going on, we’ve put together a list of some of the most common AI terms. We’ll do our best to explain what they mean and why they’re important.

What exactly is AI?

Artificial intelligence: Often shortened to AI, the term “artificial intelligence” is technically the discipline of computer science that’s dedicated to making computer systems that can think like a human.

But right now, we’re mostly hearing about AI as a technology and or even an entity, and what exactly that means is harder to pin down. It’s also frequently used as a marketing buzzword, which makes its definition more mutable than it should be.

Google, for example, talks a lot about how it’s been investing in AI for years. That refers to how many of its products are improved by artificial intelligence and how the company offers tools like Gemini that appear to be intelligent, for example. There are the underlying AI models that power many AI tools, like OpenAI’s GPT. Then, there’s Meta CEO Mark Zuckerberg, who has used AI as a noun to refer to individual chatbots.

As more companies try to sell AI as the next big thing, the ways they use the term and other related nomenclature might get even more confusing

As more companies try to sell AI as the next big thing, the ways they use the term and other related nomenclature might get even more confusing. There are a bunch of phrases you are likely to come across in articles or marketing about AI, so to help you better understand them, I’ve put together an overview of many of the key terms in artificial intelligence that are currently being bandied about. Ultimately, however, it all boils down to trying to make computers smarter.

(Note that I’m only giving a rudimentary overview of many of these terms. Many of them can often get very scientific, but this article should hopefully give you a grasp of the basics.)

Machine learning: Machine learning systems are trained (we’ll explain more about what training is later) on data so they can make predictions about new information. That way, they can “learn.” Machine learning is a field within artificial intelligence and is critical to many AI technologies.

Artificial general intelligence (AGI): Artificial intelligence that’s as smart or smarter than a human. (OpenAI in particular is investing heavily into AGI.) This could be incredibly powerful technology, but for a lot of people, it’s also potentially the most frightening prospect about the possibilities of AI — think of all the movies we’ve seen about superintelligent machines taking over the world! If that isn’t enough, there is also work being done on “superintelligence,” or AI that’s much smarter than a human. 

Generative AI: An AI technology capable of generating new text, images, code, and more. Think of all the interesting (if occasionally problematic) answers and images that you’ve seen being produced by ChatGPT or Google’s Gemini. Generative AI tools are powered by AI models that are typically trained on vast amounts of data. 

Hallucinations: No, we’re not talking about weird visions. It’s this: because generative AI tools are only as good as the data they’re trained on, they can “hallucinate,” or confidently make up what they think are the best responses to questions. These hallucinations (or, if you want to be completely honest, bullshit) mean the systems can make factual errors or give gibberish answers. There’s even some controversy as to whether AI hallucinations can ever be “fixed.”

Bias: Hallucinations aren’t the only problems that have come up when dealing with AI — and this one might have been predicted since AIs are, after all, programmed by humans. As a result, depending on their training data, AI tools can demonstrate biases. For example, 2018 research from Joy Buolamwini, a computer scientist at MIT Media Lab, and Timnit Gebru, the founder and executive director of the Distributed Artificial Intelligence Research Institute (DAIR), co-authored a paper that illustrated how facial recognition software had higher error rates when attempting to identify the gender of darker-skinned women.

Image: Hugo J. Herrera for The Verge

I keep hearing a lot of talk about models. What are those? 

AI model: AI models are trained on data so that they can perform tasks or make decisions on their own. 

Large language models, or LLMs: A type of AI model that can process and generate natural language text. Anthropic’s Claude, which, according to the company, is “a helpful, honest, and harmless assistant with a conversational tone,” is an example of an LLM. 

Diffusion models: AI models that can be used for things like generating images from text prompts. They are trained by first adding noise — such as static — to an image and then reversing the process so that the AI has learned how to create a clear image. There are also diffusion models that work with audio and video.

Foundation models: These generative AI models are trained on a huge amount of data and, as a result, can be the foundation for a wide variety of applications without specific training for those tasks. (The term was coined by Stanford researchers in 2021.) OpenAI’s GPT, Google’s Gemini, Meta’s Llama, and Anthropic’s Claude are all examples of foundation models. Many companies are also marketing their AI models as multimodal, meaning they can process multiple types of data, such as text, images, and video. 

Frontier models: In addition to foundation models, AI companies are working on what they call “frontier models,” which is basically just a marketing term for their unreleased future models. Theoretically, these models could be far more powerful than the AI models that are available today, though there are also concerns that they could pose significant risks.

Image: Hugo J. Herrera for The Verge

But how do AI models get all that info?

Well, they’re trained. Training is a process by which AI models learn to understand data in specific ways by analyzing datasets so they can make predictions and recognize patterns. For example, large language models have been trained by “reading” vast amounts of text. That means that when AI tools like ChatGPT respond to your queries, they can “understand” what you are saying and generate answers that sound like human language and address what your query is about. 

Training often requires a significant amount of resources and computing power, and many companies rely on powerful GPUs to help with this training. AI models can be fed different types of data, typically in vast quantities, such as text, images, music, and video. This is — logically enough — known as training data

Parameters, in short, are the variables an AI model learns as part of its training. The best description I’ve found of what that actually means comes from Helen Toner, the director of strategy and foundational research grants at Georgetown’s Center for Security and Emerging Technology and a former OpenAI board member:

Parameters are the numbers inside an AI model that determine how an input (e.g., a chunk of prompt text) is converted into an output (e.g., the next word after the prompt). The process of ‘training’ an AI model consists in using mathematical optimization techniques to tweak the model’s parameter values over and over again until the model is very good at converting inputs to outputs.

In other words, an AI model’s parameters help determine the answers that they will then spit out to you. Companies sometimes boast about how many parameters a model has as a way to demonstrate that model’s complexity.

Image: Hugo J. Herrera for The Verge

Are there any other terms I may come across?

Natural language processing (NLP): The ability for machines to understand human language thanks to machine learning. OpenAI’s ChatGPT is a basic example: it can understand your text queries and generate text in response. Another powerful tool that can do NLP is OpenAI’s Whisper speech recognition technology, which the company reportedly used to transcribe audio from more than 1 million hours of YouTube videos to help train GPT-4.

Inference: When a generative AI application actually generates something, like ChatGPT responding to a request about how to make chocolate chip cookies by sharing a recipe. This is the task your computer does when you execute local AI commands.

Tokens: Tokens refer to chunks of text, such as words, parts of words, or even individual characters. For example, LLMs will break text into tokens so that they can analyze them, determine how tokens relate to each other, and generate responses. The more tokens a model can process at once (a quantity known as its “context window”), the more sophisticated the results can be.

Neural network: A neural network is computer architecture that helps computers process data using nodes, which can be sort of compared to a human’s brain’s neurons. Neural networks are critical to popular generative AI systems because they can learn to understand complex patterns without explicit programming — for example, training on medical data to be able to make diagnoses.

Transformer: A transformer is a type of neural network architecture that uses an “attention” mechanism to process how parts of a sequence relate to each other. Amazon has a good example of what this means in practice:

Consider this input sequence: “What is the color of the sky?” The transformer model uses an internal mathematical representation that identifies the relevancy and relationship between the words color, sky, and blue. It uses that knowledge to generate the output: “The sky is blue.”

Not only are transformers very powerful, but they can also be trained faster than other types of neural networks. Since former Google employees published the first paper on transformers in 2017, they’ve become a huge reason why we’re talking about generative AI technologies so much right now. (The T in ChatGPT stands for transformer.) 

RAG: This acronym stands for “retrieval-augmented generation.” When an AI model is generating something, RAG lets the model find and add context from beyond what it was trained on, which can improve accuracy of what it ultimately generates.

Let’s say you ask an AI chatbot something that, based on its training, it doesn’t actually know the answer to. Without RAG, the chatbot might just hallucinate a wrong answer. With RAG, however, it can check external sources — like, say, other sites on the internet — and use that data to help inform its answer.

Image: Hugo J. Herrera for The Verge

How about hardware? What do AI systems run on?

Nvidia’s H100 chip: One of the most popular graphics processing units (GPUs) used for AI training. Companies are clamoring for the H100 because it’s seen as the best at handling AI workloads over other server-grade AI chips. However, while the extraordinary demand for Nvidia’s chips has made it among the world’s most valuable companies, many other tech companies are developing their own AI chips, which could eat away at Nvidia’s grasp on the market. 

Neural processing units (NPUs): Dedicated processors in computers, tablets, and smartphones that can perform AI inference on your device. (Apple uses the term “neural engine.”) NPUs can be more efficient at doing many AI-powered tasks on your devices (like adding background blur during a video call) than a CPU or a GPU.

TOPS: This acronym, which stands for “trillion operations per second,” is a term tech vendors are using to boast about how capable their chips are at AI inference. 

Image: Hugo J. Herrera for The Verge

So what are all these different AI apps I keep hearing about?

There are many companies that have become leaders in developing AI and AI-powered tools. Some are entrenched tech giants, but others are newer startups. Here are a few of the players in the mix:


Leave a Reply

Your email address will not be published. Required fields are marked *