Tại sao LLMs vẫn đáng sử dụng khi không thể vượt qua một kỹ thuật từ thập kỷ 70

LLMs không thể vượt trội hơn một kỹ thuật từ những năm 70, nhưng vẫn đáng giá sử dụng – Đây là lý do Bắt đầu sự kiện ngày hôm nay với thẻ hashtag sự kiện #LLMs #AI #MachineLearning. Tham gia vào những bản tin hàng ngày và hàng tuần của chúng tôi để cập nhật thông tin mới nhất và nội dung độc quyền về bảo quản AI hàng đầu trong ngành. Tìm hiểu thêm! Trong năm nay, nhóm của chúng tôi tại MIT Data to AI Lab quyết định thử sử dụng các mô hình ngôn ngữ lớn (LLMs) để thực hiện một nhiệm vụ thường được để lại cho các công cụ học máy rất khác – phát hiện biến động trong dữ liệu chuỗi thời gian. Đây là một nhiệm vụ học máy phổ biến trong nhiều thập kỷ, thường được sử dụng trong ngành công nghiệp để dự đoán và tìm ra vấn đề với các máy móc nặng. Chúng tôi đã phát triển một khung sườn cho việc sử dụng LLMs trong ngữ cảnh này, sau đó so sánh hiệu suất của họ với 10 phương pháp khác, từ các công cụ học sâu hiện đại đến một phương pháp đơn giản từ những năm 1970 gọi là mô hình trung bình chuyển động tích hợp (ARIMA). Cuối cùng, LLMs đã thua đa số các mô hình khác trong hầu hết các trường hợp – thậm chí còn cũ như ARIMA, mà đã vượt trội nó trên bảy bộ dữ liệu trên tổng cộng 11. Đối với những người mơ về LLMs như một công nghệ giải quyết vấn đề hoàn toàn phổ biến, điều này có thể nghe như là một thất bại. Và đối với nhiều người trong cộng đồng AI – đang khám phá giới hạn hiện tại của các công cụ này – có lẽ không ngạc nhiên. Nhưng đã có hai yếu tố của những kết quả của chúng tôi thực sự làm chúng tôi ngạc nhiên. Đầu tiên, khả năng của LLMs để vượt trội trên một số mô hình, bao gồm một số phương pháp học sâu dựa trên biến áp, đã bắt chúng tôi ngạc nhiên. Bất ngờ thứ hai và có lẽ quan trọng hơn là so với các mô hình khác, LLMs đã làm tất cả điều này mà không cần fine-tuning. Chúng tôi đã sử dụng GPT-3.5 và Mistral LLMs ngay khi nhận được, và không điều chỉnh chúng một chút nào. LLMs đã phá vỡ nhiều giới hạn căn bản. Đối với các phương pháp không phải LLMs, chúng tôi sẽ huấn luyện một mô hình học sâu hoặc mô hình từ những năm 1970 đã đề cập, bằng cách sử dụng tín hiệu mà chúng tôi muốn phát hiện sự bất thường. Theo cách nói khác, chúng tôi sẽ sử dụng dữ liệu lịch sử cho tín hiệu để huấn luyện mô hình hiểu được điều gì là “bình thường”. Sau đó, chúng tôi sẽ triển khai mô hình, cho phép nó xử lý các giá trị mới cho tín hiệu theo thời gian thực, phát hiện bất kỳ độ lệch nào so với bình thường và đánh dấu chúng là những biến động. Tuy nhiên, khi chúng tôi sử dụng LLMs, chúng tôi không thực hiện quá trình hai bước này – LLMs không được cơ hội học “bình thường” từ các tín hiệu trước khi phát hiện sự bất thường theo thời gian thực. Chúng ta gọi điều này là học không giác. Nhìn qua góc nhìn này, đó là một thành tựu đáng nể. Việc rằng LLMs có thể thực hiện học không giác – nhảy vào vấn đề này mà không cần bất kỳ ví dụ cụ thể hoặc điều chỉnh nào – có nghĩa là chúng ta hiện có một cách để phát hiện sự bất thường mà không cần huấn luyện các mô hình cụ thể từ đầu cho mỗi tín hiệu hoặc điều kiện cụ thể. Đây là một tiết kiệm lớn về hiệu quả, vì một số loại máy móc nặng, như vệ tinh, có thể có hàng nghìn tín hiệu, trong khi một số khác có thể yêu cầu huấn luyện cho các điều kiện cụ thể. Với LLMs, những bước tốn thời gian này có thể hoàn toàn bị bỏ qua. #LLMs #AI #MachineLearning (Article continues at https://venturebeat.com/2021/09/23/llms-cant-outperform-a-technique-from-the-70s-but-theyre-still-worth-using-heres-why/) Nguồn: https://venturebeat.com/ai/llms-are-stuck-on-a-problem-from-the-70s-but-are-still-worth-using-heres-why/

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


This year, our team at MIT Data to AI lab decided to try using large language models (LLMs) to perform a task usually left to very different machine learning tools — detecting anomalies in time series data. This has been a common machine learning (ML) task for decades, used frequently in industry to anticipate and find problems with heavy machinery. We developed a framework for using LLMs in this context, then compared their performance to 10 other methods, from state-of-the-art deep learning tools to a simple method from the 1970s called autoregressive integrated moving average (ARIMA). In the end, the LLMs lost to the other models in most cases — even the old-school ARIMA, which outperformed it on seven datasets out of a total of 11.

For those who dream of LLMs as a totally universal problem-solving technology, this may sound like a defeat. And for many in the AI community — who are discovering the current limits of these tools — it is likely unsurprising. But there were two elements of our findings that really surprised us. First, LLMs’ ability to outperform some models, including some transformer-based deep learning methods, caught us off guard. The second and perhaps even more important surprise was that unlike the other models, the LLMs did all of this with no fine-tuning. We used GPT-3.5 and Mistral LLMs out of the box, and didn’t tune them at all.

LLMs broke multiple foundational barriers

For the non-LLM approaches, we would train a deep learning model, or the aforementioned 1970’s model, using the signal for which we want to detect anomalies. Essentially, we would use the historical data for the signal to train the model so it understands what “normal” looks like. Then we would deploy the model, allowing it to process new values for the signal in real time, detect any deviations from normal and flag them as anomalies.

LLMs did not need any previous examples

But, when we used LLMs, we did not do this two-step process — the LLMs were not given the opportunity to learn “normal” from the signals before they had to detect anomalies in real time. We call this zero shot learning. Viewed through this lens, it’s an incredible accomplishment. The fact that LLMs can perform zero-shot learning — jumping into this problem without any previous examples or fine-tuning — means we now have a way to detect anomalies without training specific models from scratch for every single signal or a specific condition. This is a huge efficiency gain, because certain types of heavy machinery, like satellites, may have thousands of signals, while others may require training for specific conditions. With LLMs, these time-intensive steps can be skipped completely. 

LLMs can be directly integrated in deployment

A second, perhaps more challenging part of current anomaly detection methods is the two-step process employed for training and deploying a ML model. While deployment sounds straightforward enough, in practice it is very challenging. Deploying a trained model requires that we translate all the code so that it can run in the production environment. More importantly, we must convince the end user, in this case the operator, to allow us to deploy the model. Operators themselves don’t always have experience with machine learning, so they often consider this to be an additional, confusing item added to their already overloaded workflow. They may ask questions, such as “how frequently will you be retraining,” “how do we feed the data into the model,” “how do we use it for various signals and turn it off for others that are not our focus right now,” and so on. 

This handoff usually causes friction, and ultimately results in not being able to deploy a trained model. With LLMs, because no training or updates are required, the operators are in control. They can query with APIs, add signals that they want to detect anomalies for, remove ones for which they don’t need anomaly detection and turn the service on or off without having to depend on another team. This ability for operators to directly control anomaly detection will change difficult dynamics around deployment and may help to make these tools much more pervasive.

While improving LLM performance, we must not take away their foundational advantages

Although they are spurring us to fundamentally rethink anomaly detection, LLM-based techniques have yet to perform as well as the state-of-the-art deep learning models, or (for 7 datasets) the ARIMA model from the 1970s. This might be because my team at MIT did not fine-tune or modify the LLM in any way, or create a foundational LLM specifically meant to be used with time series. 

While all those actions may push the needle forward, we need to be careful about how this fine-tuning happens so as to not compromise the two major benefits LLMs can afford in this space. (After all, although the problems above are real, they are solvable.) This in mind, though, here is what we cannot do to improve the anomaly detection accuracy of LLMs:

  • Fine-tune the existing LLMs for specific signals, as this will defeat their “zero shot” nature.
  • Build a foundational LLM to work with time series and add a fine-tuning layer for every new type of machinery. 

These two steps would defeat the purpose of using LLMs and would take us right back to where we started: Having to train a model for every signal and facing difficulties in deployment. 

For LLMs to compete with existing approaches — anomaly detection or other ML tasks —  they must either enable a new way of performing a task or open up an entirely new set of possibilities. To prove that LLMs with any added layers will still constitute an improvement, the AI community has to develop methods, procedures and practices to make sure that improvements in some areas don’t eliminate LLMs’ other advantages.  

For classical ML, it took almost 2 decades to establish the train, test and validate practice we rely on today. Even with this process, we still can’t always ensure that a model’s performance in test environments will match its real performance when deployed. We come across label leakage issues, data biases in training and too many other problems to even list here. 

If we push this promising new avenue too far without those specific guardrails, we may slip into reinventing the wheel again — perhaps an even more complex one.

Kalyan Veeramachaneni is the director of MIT Data to AI Lab. He is also a co-founder of DataCebo

Sarah Alnegheimish is a researcher at MIT Data to AI Lab.

DataDecisionMakers

Welcome to the VentureBeat community!

DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.

If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.

You might even consider contributing an article of your own!

Read More From DataDecisionMakers

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *