Tại sao kỹ năng kỹ thuật xây dựng cụm từ là một trong những kỹ năng quý giá nhất ngày nay tham gia bản tin hàng ngày và hàng tuần của chúng tôi để cập nhật thông tin mới nhất và nội dung độc quyền về việc bão chữa trí tuệ nhân tạo hàng đầu. Học thêm trong một thế giới đang nhanh chóng chấp nhận các mô hình ngôn ngữ lớn (LLMs), kỹ thuật bão chữa đã xuất hiện như một kỹ năng mới để mở khóa toàn bộ tiềm năng của chúng. Hãy nghĩ về nó như là ngôn ngữ để nói chuyện với các hệ thống AI thông minh này, cho phép chúng ta tiếp cận vào khả năng rộng lớn của chúng và tái tạo cách chúng ta tạo ra, làm việc, giải quyết vấn đề và làm nhiều việc khác. Nó có thể cho phép bất kỳ ai — bao gồm cả bà của bạn — lập trình một hệ thống AI với hàng tỷ tham số phức tạp trong đám mây. LLMs được xây dựng dựa trên các thuật toán và kiến trúc học sâu. Chúng được đào tạo trên các bộ dữ liệu lớn về văn bản. Giống như một con người đã nuôi dưỡng từng quyển sách, LLMs học các mẫu, cú pháp, mối quan hệ và khả năng lý luận từ dữ liệu. Các cài đặt bên trong có thể được điều chỉnh để thay đổi cách mô hình xử lý thông tin và được điều chỉnh để cải thiện độ chính xác. Khi nhận được một yêu cầu ở giai đoạn suy luận, LLMs sử dụng kiến thức và tham số đã học để tạo ra kết quả phù hợp nhất và có bối cảnh nhất. Đó chính là nhờ những yêu cầu này mà LLMs có thể tạo ra văn bản chất lượng ngang ngửa con người, thực hiện cuộc trò chuyện, dịch ngôn ngữ, viết nhiều loại nội dung sáng tạo và trả lời câu hỏi một cách thông tin. Có nhiều LLM miễn phí (nguồn mở) và dịch vụ LLM trả phí (nguồn lực đóng) được cung cấp ngày nay. LLMs đang biến đổi mọi ngành cũng như mọi khía cạnh của cuộc sống của chúng ta. Dưới đây là cách: Dịch vụ khách hàng: Các chatbot AI mạnh mẽ cung cấp hỗ trợ ngay lập tức và trả lời câu hỏi của khách hàng. Giáo dục: Trải nghiệm học tập cá nhân hóa và các gia sư AI có sẵn. Chăm sóc sức khỏe: LLMs được sử dụng để phân tích các vấn đề y tế, tăng tốc việc phát hiện thuốc và cá nhân hóa kế hoạch điều trị. Tiếp thị và tạo nội dung: LLMs có thể tạo ra bản copy quảng cáo hấp dẫn, nội dung trang web và kịch bản cho video. Phát triển phần mềm: LLMs đang hỗ trợ các nhà phát triển với mã nguồn, gỡ lỗi và tài liệu. Loại yêu cầu quan trọng và kỹ thuật Yêu cầu hành động như một đèn dẫn cho LLMs. Một yêu cầu được tạo ra tốt có thể ảnh hưởng đáng kể đến chất lượng và tính phù hợp của kết quả của LLMs. Hãy tưởng tượng yêu cầu một trợ lý cá nhân để “đặt bàn tối.” Tùy thuộc vào bạn cung cấp bao nhiêu thông tin, chẳng hạn như ưa thích về ẩm thực hoặc thời gian, bạn sẽ nhận được kết quả chính xác hơn. Kỹ thuật bão chữa là nghệ thuật và khoa học của việc thiết kế yêu cầu để tạo ra đầu ra mong muốn từ các hệ thống AI. Nó bao gồm thiết kế và tinh chỉnh các yêu cầu để tạo ra đầu ra chính xác, phù hợp và sáng tạo phù hợp với ý định của người dùng. Hãy khám phá sâu hơn bằng cách xem xét các kỹ thuật kỹ thuật bão chữa có thể giúp người dùng hướng dẫn LLMs đến các kết quả mong muốn. Từ thực tập, các yêu cầu có thể được phân loại rộng rãi như những loại sau: Yêu cầu trực tiếp: Đây là chỉ đạo trực tiếp nhỏ, chẳng hạn như “Dịch ‘xin chào’ sang tiếng Tây Ban Nha.” Yêu cầu bối cảnh: Một chút bối cảnh được thêm vào chỉ dẫn trực tiếp nhỏ. Như, “Tôi đang viết một bài đăng blog về lợi ích của AI. Viết một tiêu đề hấp dẫn.” Các yêu cầu dựa trên hướng dẫn: Đây là các hướng dẫn chi tiết với các chi tiết cụ thể về những gì phải và không nên làm. Ví dụ, “Viết một câu chuyện ngắn về một con mèo biết nói. Con mèo nên chán chường và mỉa mai.” Ví dụ dựa trên: Người yêu cầu có thể nói, “Đây là một ví dụ về một bài thơ Haiku: Một ao tĩnh lặng / Một con ếch nhảy vào ao— / Splash! Lại yên lặng. Bây giờ, viết bài Haiku của riêng bạn.” Dưới đây là các kỹ thuật quan trọng đã được chứng minh là rất hiệu quả trong kỹ thuật bão chữa: Tinh chỉnh lặp: Điều này bao gồm liên tục tinh chỉnh yêu cầu dựa trên phản ứng của AI. Nó có thể dẫn đến các kết quả tốt hơn. Ví dụ: Bạn có thể bắt đầu với “Viết một bài thơ về hoàng hôn.” Sau khi xem đầu ra, tinh chỉnh nó thành “Viết một bài thơ u buồn về một hoàng hôn tại bãi biển.” Yêu cầu chuỗi suy nghĩ: Khuyến khích tư duy bước đến bước có thể giúp giải quyết các vấn đề phức tạp. Ví dụ: Thay vì chỉ một yêu cầu phức tạp như “Một người nông dân có 14 chiếc máy kéo, tám con bò và 10 con gà. Nếu anh ấy bán giữa số chim và mua thêm 3 con bò, số lượng động vật nào sẽ cho anh ấy sữa?”, thêm vào “Hãy suy nghĩ từng bước” hoặc “Giải thích cách suy luận của bạn” có thể cho kết quả tốt hơn đáng kể và thậm chí rõ ràng chỉ ra bất kỳ lỗi trung gian nào mà mô hình có thể đã. Đóng vai trò: Điều này có nghĩa là giao cho AI một vai trò hoặc nhân vật trước khi giao cho nó nhiệm vụ. Ví dụ: “Bạn là một hướng dẫn bảo tàng. Hãy giải thích bức tranh Vista từ một hang động của David Teniers the Younger.” Yêu cầu nhiều lượt: Điều này bao gồm phân chia công việc phức tạp thành một loạt yêu cầu. Kỹ thuật này bao gồm việc sử dụng một chuỗi các yêu cầu để hướng dẫn AI đến câu trả lời cần thiết. Ví dụ: “Tạo ra một bản tóm tắt chi tiết,” tiếp theo là “Sử dụng bản tóm tắt để mở rộng mỗi điểm thành một đoạn văn,” tiếp đó là “Đoạn văn thứ hai đang thiếu X. Viết lại nó để tập trung vào…” và sau đó hoàn tất phần. Thách thức và cơ hội trong kỹ thuật bão chữa Có một số thách thức và cơ hội trong kỹ thuật bão chữa. Mặc dù chúng đã cải thiện lên đến mức vô cùng, LLMs vẫn có thể gặp khó khăn với các khái niệm trừu tượng, hài hước, lý luận phức tạp và các nhiệm vụ khác, thường yêu cầu yêu cầu được thiết kế cẩn thận. Các mô hình AI cũng có thể phản ánh các độc đáo hiện có trong dữ liệu đào tạo. Kỹ sư bão chữa cần hiểu điều này và giải quyết và hạn chế các thành kiến tiềm ẩn trong các giải pháp cuối cùng của họ. Ngoài ra, các mô hình khác nhau có thể tự nhiên hiểu và phản ứng với các yêu cầu theo cách khác nhau, điều đó tạo ra thách thức cho khả năng tổng quát hóa qua các mô hình. Hầu hết những người tạo LLMs thường có tài liệu tốt cùng với mẫu yêu cầu và hướng dẫn khác hoạt động tốt cho mô hình đó. Luôn hữu ích khi làm quen để sử dụng hiệu quả các mô hình. Cuối cùng, mặc dù tốc độ suy luận liên tục được cải thiện, bão chữa hiệu quả cũng tạo ra cơ hội để lập trình LLMs chính xác vào thời gian suy luận để tiết kiệm nguồn tài nguyên tính toán và năng lượng. Khi trí tuệ nhân tạo ngày càng liên kết với cuộc sống của chúng ta, kỹ thuật bão chữa đang đóng một vai trò quyết định trong việc hình thành cách chúng ta tương tác và tận dụng từ sức mạnh của nó. Khi làm đúng cách, nó nắm giữ tiềm năng lớn để phô ra các khả năng mà chúng ta chưa tưởng tượng được. Deven Panchal đến từ AT&T Labs. #DecisionMakers #EngineeringSkills #AI #DataScience #PromptEngineering.
Nguồn: https://venturebeat.com/ai/why-prompt-engineering-is-one-of-the-most-valuable-skills-today/
Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More
In a world that is rapidly embracing large language models (LLMs), prompt engineering has emerged as a new skill to unlocking their full potential. Think of it as the language to speak with these intelligent AI systems, enabling us to tap into their vast capabilities and reshape how we create, work, solve problems and do much more. It can allow anyone — including your grandma — to program a complex multi-billion parameter AI system in the cloud.
LLMs are fundamentally built on deep learning algorithms and architectures. They are trained on massive datasets of text. Like a human who has devoured countless books, LLMs learn patterns, grammar, relationships and reasoning abilities from data. Internal settings can be tuned to change how the model processes information and adjusted to improve accuracy. When given a prompt at the inferencing stage, the LLMs use their learned knowledge and parameters to generate the most probable and contextually relevant output. It is because of these prompts that the LLMs can generate human-quality text, hold conversations, translate languages, write different kinds of creative content and answer questions in an informative way.
Many free (open source) LLMs and paid (closed source) hosted LLM services are available today. LLMs are transforming every industry as well as every aspect of our lives. Here’s how:
- Customer service: Powerful AI chatbots provide instant support and answer customer queries.
- Education: Personalized learning experiences and AI tutors are available.
- Healthcare: LLMs are being used to analyze medical issues, accelerate drug discovery and personalize treatment plans.
- Marketing and content creation: LLMs can generate engaging marketing copy, website content and scripts for videos.
- Software development: LLMs are assisting developers with code generation, debugging and documentation.
Important prompt types and techniques
Prompts act as a guiding light for LLMs. A well-crafted prompt can significantly impact the quality and relevance of the output of LLMs. Imagine asking a personal assistant to “make a reservation for dinner.” Depending on how much information you provide, such as preferred cuisine or time, you will get a more accurate result. Prompt engineering is the art and science of crafting prompts to elicit desired outputs from AI systems. It involves designing and refining prompts to generate accurate, relevant and creative outputs that align with the user’s intent.
Let us delve deeper by looking at prompt engineering techniques that can help a user guide LLMs toward desired outcomes.
From practice, prompts could be broadly classified as falling into one of the following categories:
- Direct prompts: These are small direct instructions, such as “Translate ‘hello’ into Spanish.”
- Contextual prompts: A bit more context is added to small direct instructions. Such as, “I am writing a blog post about the benefits of AI. Write a catchy title.”
- Instruction-based prompts: These are elaborate instructions with specific details of what to do and what not to do. For instance, “Write a short story about a talking cat. The cat should be grumpy and sarcastic.”
- Examples-based prompts: Prompters might say, “Here’s an example of a haiku: An old silent pond / A frog jumps into the pond— / Splash! Silence again. Now, write your own haiku.”
The following are important techniques that have been proven to be very effective in prompt engineering:
- Iterative refinement: This involves continuously refining prompts based on the AI’s responses. It can lead to better results. Example: You might start with “Write a poem about a sunset.” After seeing the output, refine it to “Write a melancholic poem about a sunset at the beach.”
- Chain of thought prompting: Encouraging step-by-step reasoning can help solve complex problems. Example: Instead of just a complex prompt like “A farmer has 14 tractors, eight cows and 10 chickens. If he sells half his birds and buys 3 more cows, how many animals would give him milk?”, adding “Think step by step” or “Explain your reasoning” is likely to give much better results and even clearly point out any intermediate errors that the model could have made.
- Role-playing: This means assigning a role or persona to the AI before handing it the task. Example: “You are a museum guide. Explain the painting Vista from a Grotto by David Teniers the Younger.”
- Multi-turn prompting: This involves breaking down a complex task into a series of prompts. This technique involves using a series of prompts to guide the AI to the required answer. Example: “Create a detailed outline,” followed by “Use the outline to expand each point into a paragraph,” followed by “The 2nd paragraph is missing X. Rewrite it to focus on…” and then finally completing the piece.
Challenges and opportunities in prompt engineering
There are some challenges and opportunities in prompt engineering. Although they have improved exponentially, LLMs may still struggle with abstract concepts, humor, complex reasoning and other tasks, which often requires carefully crafted prompts. AI models also can reflect biases present in their training data.
Prompt engineers need to understand this and address and mitigate potential biases in their final solutions. Additionally, different models may naturally interpret and respond to prompts in different ways, which poses challenges for generalization across models. Most LLM creators usually have good documentation along with prompt templates and other guidelines that work well for that model. It is always useful to familiarize yourself to efficiently use models. Finally, although inferencing speeds are continuously improving, effective prompting also presents an opportunity to program LLMs precisely at inference time to save compute and energy resources.
As AI becomes increasingly intertwined with our lives, prompt engineering is playing a crucial role in shaping how we interact with and benefit from its power. When done right, it holds immense potential to unleash possibilities that we have not imagined yet.
Deven Panchal is with AT&T Labs.
DataDecisionMakers
Welcome to the VentureBeat community!
DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.
If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.
You might even consider contributing an article of your own!
Read More From DataDecisionMakers

[ad_2]