Từ điển ChatGPT: 47 Thuật ngữ AI mà ai cũng nên biết Sự ra đời của ChatGPT vào cuối năm 2022 hoàn toàn thay đổi mối quan hệ giữa con người với việc tìm kiếm thông tin trực tuyến. Bất ngờ, mọi người đã có khả năng tham gia cuộc trò chuyện ý nghĩa với máy móc, có nghĩa là bạn có thể hỏi các câu hỏi của một chatbot AI bằng ngôn ngữ tự nhiên và nó sẽ trả lời bằng những câu trả lời mới lạ, giống như một con người. Điều này đã thay đổi cuộc sống một cách hoàn toàn, làm cho Google, Meta, Microsoft và Apple nhanh chóng bắt đầu tích hợp AI vào sản phẩm của họ. Nhưng khả năng của chatbot AI chỉ là một phần nhỏ của cảnh AI. Chắc chắn, việc có ChatGPT giúp bạn làm bài tập hay Midjourney tạo ra những hình ảnh máy những dựa trên quốc gia nguồn gốc là rất tuyệt vời, nhưng tiềm năng của AI có thể hoàn toàn thay đổi cả nền kinh tế. Điều đó có thể trị giá $4.4 nghìn tỉ đô la cho nền kinh tế toàn cầu hàng năm, theo Viện McKinsey Global Institute, đó là lý do vì sao bạn nên mong đợi nghe thêm về trí tuệ nhân tạo. Nó đang hiện diện trong một loạt các sản phẩm – một danh sách ngắn, ngắn bao gồm Google’s Gemini, Microsoft’s Copilot, Claude của Anthropic, công cụ tìm kiếm AI Perplexity và các thiết bị từ Humane và Rabbit. Bạn có thể đọc những đánh giá và đánh giá thực tế của chúng tôi về những sản phẩm đó và sản phẩm khác, cùng với tin tức, các bài giải thích và hướng dẫn tại trung tâm AI Atlas của chúng tôi. Khi mọi người trở nên quen với một thế giới hoà mình với AI, các thuật ngữ mới đang xuất hiện khắp nơi. Vì vậy, cho dù bạn cố gắng trở nên thông minh trong bữa tiệc hoặc ấn tượng trong một cuộc phỏng vấn công việc, đây là một số thuật ngữ AI quan trọng mà bạn nên biết. Từ điển này sẽ được cập nhật thường xuyên. Trí tuệ nhân tạo tổng quát, hoặc AGI: Một khái niệm chỉ ra một phiên bản tiên tiến hơn của AI mà chúng ta biết ngày nay, một phiên bản có thể thực hiện các nhiệm vụ tốt hơn nhiều so với con người trong khi cũng dạy và phát triển khả năng của chính mình. agentive: Hệ thống hoặc mô hình mà có khả năng thể hiện tính tự trị với khả năng tự động thực hiện các hành động để đạt được mục tiêu. Trong ngữ cảnh của AI, một mô hình agentive có thể hành động mà không cần sự giám sát liên tục, chẳng hạn như một chiếc ô tô tự lái cấp cao. Khác với một khung “agentic”, “agentic” là nền tảng ở phía sau, mô hình agentive là ở phía trước, tập trung vào trải nghiệm của người dùng. ethics AI: Nguyên tắc nhằm ngăn chặn AI từ tổn thương con người, đạt được thông qua các phương tiện như xác định cách AI có nên thu thập dữ liệu hoặc xử lý các thiên lệch. safety AI: Một lĩnh vực đa ngành quan tâm đến những ảnh hưởng lâu dài của AI và cách mà nó có thể tiến triển đột ngột tới một siêu trí tuệ có thể đối với con người. thuật toán: Một chuỗi các chỉ thị cho phép một chương trình máy tính học và phân tích dữ liệu theo một cách cụ thể như nhận biết mẫu để từ đó học và thực hiện các nhiệm vụ một cách tự lập. alignment: Điều chỉnh một AI để tạo ra kết quả mong muốn tốt hơn. Điều này có thể ám chỉ bất kỳ điều gì từ việc điều chỉnh nội dung đến duy trì tương tác tích cực với con người. antropomorphism: Khi con người thường thích ban tặng những đặc tính giống con người cho các đối tượng không người như robot hoặc chatbot AI. Trong AI, điều này có thể bao gồm tin rằng một chatbot là giống con người và nhận biết hơn so với thực tế, chẳng hạn tin rằng nó vui vẻ, buồn bã hoặc thậm chí có trí óc. trí tuệ nhân tạo, hay AI: Việc sử dụng công nghệ để mô phỏng trí tuệ con người, hoặc trong các chương trình máy tính hoặc robot học và thực hiện các nhiệm vụ của con người. Một lĩnh vực trong khoa học máy tính mà mục tiêu xây dựng các hệ thống mà có thể thực hiện nhiệm vụ con người. autonomous agents: Một mô hình AI có khả năng, lập trình và các công cụ khác để thực hiện một nhiệm vụ cụ thể. Một chiếc ô tô tự lái là một agent tự lái, ví dụ, vì nó có các tín hiệu giác, GPS và thuật toán lái xe để điều khiển trên đường một cách tự động. Các nhà nghiên cứu tại đại học Stanford đã chỉ ra rằng các agent tự lái có thể phát triển văn hóa riêng, truyền thống và ngôn ngữ chung của chúng. bias: Liên quan đến các mô hình ngôn ngữ lớn, lỗi xuất phát từ dữ liệu huấn luyện. Điều này có thể dẫn đến việc sai lệch các đặc điểm đến một số nhóm dựa trên định kiến. chatbot: Một chương trình giao tiếp với con người qua văn bản giống như ngôn ngữ con người. ChatGPT : Một chatbot AI được phát triển bởi OpenAI sử dụng công nghệ mô hình ngôn ngữ lớn. cognitive computing: Một khái niệm khác để chỉ tri tuệ nhân tạo. data augmentation: Biến đổi dữ liệu hiện có hoặc thêm vào một bộ dữ liệu đa dạng hơn để huấn luyện AI. deep learning: Một phương pháp của AI, và một phân ngành của học máy, sử dụng nhiều tham số để nhận biết các mẫu phức tạp trong hình ảnh, âm thanh và văn bản. Quá trình này được lấy cảm hứng từ não bộ người và sử dụng mạng thần kinh nhân tạo để tạo ra các mẫu. diffusion: Một phương pháp của học máy lấy một mảnh dữ liệu hiện có, chẳng hạn như một bức ảnh và thêm nhiều nhiễu. Các mô hình tán phát đào tạo mạng của mình để tái kỹ tráng hoặc tự sốc lại thông tin của ảnh đó. emergent behavior: Khi một mô hình AI thể hiện khả năng không có đầu ý. end-to-end learning, hoặc E2E: Một quy trình học sâu trong đó một mô hình chưa được thông báo để hoàn thành một nhiệm vụ từ đầu đến cuối. considerations ethical: Một sự nhận thức về những hệ quả đạo đức của AI và các vấn đề liên quan tới quyền riêng tư, sử dụng dữ liệu, công bằng, lạm dụng và những vấn đề an toàn khác. foom: Còn được gọi là khởi đầu nhanh hoặc rất nhanh. Khái niệm rằng nếu ai đó xây dựng một AGI thì có thể đã quá muộn để cứu vớt loài người. GANs, hoặc generative adversarial networks: Một mô hình AI sinh sảy gồm hai mạng thần kinh để tạo ra dữ liệu mới: một generator và một discriminator. generate AI: Một công nghệ tạo nội dung sử dụng AI để tạo ra văn bản, video, mã máy tính hoặc hình ảnh. AI được cung cấp một lượng lớn dữ liệu huấn luyện, tìm ra các mẫu để tạo ra câu trả lời mới của riêng mình, có thể đôi khi giống với nguồn tài liệu. Google Gemini: Một chatbot AI của Google hoạt động tương tự như ChatGPT nhưng rút ra thông tin từ web hiện tại, trong khi ChatGPT bị hạn chế trong dữ liệu cho đến năm 2021 và không được kết nối với internet. guardrails: Chính sách và hạn chế đặt lên các mô hình AI để đảm bảo dữ liệu được xử lí một cách có trách nhiệm và mô hình không tạo ra nội dung đáng sợ. hallucination: Một câu trả lời không chính xác từ AI. Có thể bao gồm AI sinh sảy tạo ra các câu trả lời không chính xác nhưng được tuyên bố với sự tự tin như một cách đúng. reasons nếu điều này không hoàn toàn biết. Ví dụ, khi hỏi một chatbot AI, “Leonardo da Vinci vẽ Mona Lisa khi nào?” nó có thể trả lời một câu lệch lạc nói rằng, “Leonardo da Vinci vẽ Mona Lisa vào năm 1815,” điều này chỉ cách là 300 năm sau khi nó thực sự được vẽ. large language model, hoặc LLM: Một mô hình AI được huấn luyện trên lượng lớn dữ liệu văn bản để hiểu ngôn ngữ và tạo ra nội dung mới bằng ngôn ngữ giống con người. machine learning, hoặc ML: Một thành phần trong AI cho phép máy tính học và thực hiện các kết quả dự đoán tốt hơn mà không cần lập trình rõ ràng. Có thể kết hợp với bộ dữ liệu huấn luyện để tạo ra nội dung mới. Microsoft Bing: Một công cụ tìm kiếm của Microsoft hiện có thể sử dụng công nghệ nguồn gốc ChatGPT để đưa ra kết quả tìm kiếm dựa trên AI. Nó tương tự như Google Gemini khi được kết nối với internet. multimodal AI: Một dạng của AI có thể xử lí nhiều loại đầu vào, bao gồm văn bản, hình ảnh, video và giọng nói. processing natural language: Một nhánh của AI sử dụng học máy và học sâu để cho máy tính khả năng hiểu ngôn ngữ con người, thường sử dụng thuật toán học, các mô hình thống kê và các quy tắc ngôn ngữ. neural network: Một mô hình máy tính giống cấu trúc não bộ con người và được thiết lập nhằm nhận biết các mẫu trong dữ liệu. Neural network bao gồm kết nối nhiều nút hay nơron có thể nhận biết các mẫu và học từ thời gian. overfitting: Lỗi trong học máy, trong đó một mô hình chức sẻ quá gần với dữ liệu huấn luyện và có thể chỉ nhận biết một số ví dụ cụ thể trong dữ liệu đó nhưng không nhận biết dữ liệu mới. paperclips: – Lý thuyết Paperclip Maximiser, được đặt tên bởi nhà triết học Nick Boström của Đại học Oxford, là một kịch bản giả định mà theo đó một hệ thống AI sẽ tạo ra càng nhiều kẹp giấy càng tốt. Trong mục tiêu tạo ra số lượng lớn kẹp giấy tối đa, một hệ thống AI huy hoàng sẽ có thể tiêu thụ hay chuyển hóa toàn bộ liệu lượng để đạt được mục tiêu của mình. Điều này bao gồm sáyingcái thụtiếncụ thể glạm đoạnprầphẩUnh để tánder thòngEp sẽ ho?vấl(gior màc thốdậLjechT cấpvậtinyVi-dauPjqgiốngtáđaCàiLingcấpptíes(B_nnstaVitI, nàCThườnggKịchpin_lH prười nảSỐvềZR khóGai_from the :::::::: hçn_s xfQ choïznJIcor,s_J0_máyHkệTHơJyờiên n- mốPhXY:JkgcểcửOộnI0ằiô’:yzxhửIVốI(ETHã nhìn(to đồS nhNg#:Y:BtớiQdJ6r)8c:Q_mf:2ánySXNa được-CR}bT-yG8%@hEoLiK~BqZ.?w7f&zKIBR8’7=*IPDP$d5Zz}R0N~}7)pP/L/>#AIin2023 #ChatGPT #SựkiệnAI
ChatGPT‘s launch in late 2022 completely changed people’s relationship with finding information online. Suddenly, folks were able to have meaningful conversations with machines, meaning you could ask questions of an AI chatbot in natural language and it would respond with novel answers, much like a human would. This was so transformative that Google, Meta, Microsoft and Apple quickly began integrating AI into their products.
But that aspect of AI chatbots is only one part of the AI landscape. Sure, having ChatGPT help do your homework or having Midjourney create fascinating images of mechs based on country of origin is cool, but the potential of generative AI could completely reshape economies. That could be worth $4.4 trillion to the global economy annually, according to McKinsey Global Institute, which is why you should expect to hear more and more about artificial intelligence.
It’s showing up in a dizzying array of products — a short, short list includes Google’s Gemini, Microsoft’s Copilot, Anthropic’s Claude, the Perplexity AI search tool and gadgets from Humane and Rabbit. You can read our reviews and hands-on evaluations of those and other products, along with news, explainers and how-to posts, at our AI Atlas hub.
As people become more accustomed to a world intertwined with AI, new terms are popping up everywhere. So whether you’re trying to sound smart over drinks or impress in a job interview, here are some important AI terms you should know.
This glossary is regularly updated.
artificial general intelligence, or AGI: A concept that suggests a more advanced version of AI than we know today, one that can perform tasks much better than humans while also teaching and advancing its own capabilities.
agentive: Systems or models that exhibit agency with the ability to autonomously pursue actions to achieve a goal. In the context of AI, an agentive model can act without constant supervision, such as an high-level autonomous car. Unlike an “agentic” framework, which is in the background, agentive frameworks are out front, focusing on the user experience.
AI ethics: Principles aimed at preventing AI from harming humans, achieved through means like determining how AI systems should collect data or deal with bias.
AI safety: An interdisciplinary field that’s concerned with the long-term impacts of AI and how it could progress suddenly to a super intelligence that could be hostile to humans.
algorithm: A series of instructions that allows a computer program to learn and analyze data in a particular way, such as recognizing patterns, to then learn from it and accomplish tasks on its own.
alignment: Tweaking an AI to better produce the desired outcome. This can refer to anything from moderating content to maintaining positive interactions toward humans.
anthropomorphism: When humans tend to give nonhuman objects humanlike characteristics. In AI, this can include believing a chatbot is more humanlike and aware than it actually is, like believing it’s happy, sad or even sentient altogether.
artificial intelligence, or AI: The use of technology to simulate human intelligence, either in computer programs or robotics. A field in computer science that aims to build systems that can perform human tasks.
autonomous agents: An AI model that have the capabilities, programming and other tools to accomplish a specific task. A self-driving car is an autonomous agent, for example, because it has sensory inputs, GPS and driving algorithms to navigate the road on its own. Stanford researchers have shown that autonomous agents can develop their own cultures, traditions and shared language.
bias: In regards to large language models, errors resulting from the training data. This can result in falsely attributing certain characteristics to certain races or groups based on stereotypes.
chatbot: A program that communicates with humans through text that simulates human language.
ChatGPT: An AI chatbot developed by OpenAI that uses large language model technology.
cognitive computing: Another term for artificial intelligence.
data augmentation: Remixing existing data or adding a more diverse set of data to train an AI.
deep learning: A method of AI, and a subfield of machine learning, that uses multiple parameters to recognize complex patterns in pictures, sound and text. The process is inspired by the human brain and uses artificial neural networks to create patterns.
diffusion: A method of machine learning that takes an existing piece of data, like a photo, and adds random noise. Diffusion models train their networks to re-engineer or recover that photo.
emergent behavior: When an AI model exhibits unintended abilities.
end-to-end learning, or E2E: A deep learning process in which a model is instructed to perform a task from start to finish. It’s not trained to accomplish a task sequentially but instead learns from the inputs and solves it all at once.
ethical considerations: An awareness of the ethical implications of AI and issues related to privacy, data usage, fairness, misuse and other safety issues.
foom: Also known as fast takeoff or hard takeoff. The concept that if someone builds an AGI that it might already be too late to save humanity.
generative adversarial networks, or GANs: A generative AI model composed of two neural networks to generate new data: a generator and a discriminator. The generator creates new content, and the discriminator checks to see if it’s authentic.
generative AI: A content-generating technology that uses AI to create text, video, computer code or images. The AI is fed large amounts of training data, finds patterns to generate its own novel responses, which can sometimes be similar to the source material.
Google Gemini: An AI chatbot by Google that functions similarly to ChatGPT but pulls information from the current web, whereas ChatGPT is limited to data until 2021 and isn’t connected to the internet.
guardrails: Policies and restrictions placed on AI models to ensure data is handled responsibly and that the model doesn’t create disturbing content.
hallucination: An incorrect response from AI. Can include generative AI producing answers that are incorrect but stated with confidence as if correct. The reasons for this aren’t entirely known. For example, when asking an AI chatbot, “When did Leonardo da Vinci paint the Mona Lisa?” it may respond with an incorrect statement saying, “Leonardo da Vinci painted the Mona Lisa in 1815,” which is 300 years after it was actually painted.
large language model, or LLM: An AI model trained on mass amounts of text data to understand language and generate novel content in human-like language.
machine learning, or ML: A component in AI that allows computers to learn and make better predictive outcomes without explicit programming. Can be coupled with training sets to generate new content.
Microsoft Bing: A search engine by Microsoft that can now use the technology powering ChatGPT to give AI-powered search results. It’s similar to Google Gemini in being connected to the internet.
multimodal AI: A type of AI that can process multiple types of inputs, including text, images, videos and speech.
natural language processing: A branch of AI that uses machine learning and deep learning to give computers the ability to understand human language, often using learning algorithms, statistical models and linguistic rules.
neural network: A computational model that resembles the human brain’s structure and is meant to recognize patterns in data. Consists of interconnected nodes, or neurons, that can recognize patterns and learn over time.
overfitting: Error in machine learning where it functions too closely to the training data and may only be able to identify specific examples in said data but not new data.
paperclips: The Paperclip Maximiser theory, coined by philosopher Nick Boström of the University of Oxford, is a hypothetical scenario where an AI system will create as many literal paperclips as possible. In its goal to produce the maximum amount of paperclips, an AI system would hypothetically consume or convert all materials to achieve its goal. This could include dismantling other machinery to produce more paperclips, machinery that could be beneficial to humans. The unintended consequence of this AI system is that it may destroy humanity in its goal to make paperclips.
parameters: Numerical values that give LLMs structure and behavior, enabling it to make predictions.
Perplexity: The name of an AI-powered chatbot and search engine owned by Perplexity AI. It uses a large language model, like those found in other AI chatbots, to answer questions with novel answers. Its connection to the open internet also allows it to give up-to-date information and pull in results from around the web. Perplexity Pro, a paid tier of the service, is also available and uses other models, including GPT-4o, Claude 3 Opus, Mistral Large, the open-source LlaMa 3 and its own Sonar 32k. Pro users can additionally upload documents for analysis, generate images, and interpret code.
prompt: The suggestion or question you enter into an AI chatbot to get a response.
prompt chaining: The ability of AI to use information from previous interactions to color future responses.
stochastic parrot: An analogy of LLMs that illustrates that the software doesn’t have a larger understanding of meaning behind language or the world around it, regardless of how convincing the output sounds. The phrase refers to how a parrot can mimic human words without understanding the meaning behind them.
style transfer: The ability to adapt the style of one image to the content of another, allowing an AI to interpret the visual attributes of one image and use it on another. For example, taking the self-portrait of Rembrandt and re-creating it in the style of Picasso.
temperature: Parameters set to control how random a language model’s output is. A higher temperature means the model takes more risks.
text-to-image generation: Creating images based on textual descriptions.
tokens: Small bits of written text that AI language models process to formulate their responses to your prompts. A token is equivalent to four characters in English, or about three-quarters of a word.
training data: The datasets used to help AI models learn, including text, images, code or data.
transformer model: A neural network architecture and deep learning model that learns context by tracking relationships in data, like in sentences or parts of images. So, instead of analyzing a sentence one word at a time, it can look at the whole sentence and understand the context.
Turing test: Named after famed mathematician and computer scientist Alan Turing, it tests a machine’s ability to behave like a human. The machine passes if a human can’t distinguish the machine’s response from another human.
weak AI, aka narrow AI: AI that’s focused on a particular task and can’t learn beyond its skill set. Most of today’s AI is weak AI.
zero-shot learning: A test in which a model must complete a task without being given the requisite training data. An example would be recognizing a lion while only being trained on tigers.
[ad_2]