Công cụ chuyển văn bản của OpenAI gặp sự cố tưởng tượng, các nhà nghiên cứu cho biết

Công cụ chuyển văn bản Whisper của OpenAI gặp vấn đề ảo giác, các nhà nghiên cứu cho biết. Các kỹ sư phần mềm, nhà phát triển và các nhà nghiên cứu học thuật đều có những lo ngại nghiêm trọng về việc chuyển văn bản từ Whisper của OpenAI, theo một bài báo của Associated Press.

Mặc dù đã có không ít cuộc trao đổi về xu hướng ảo giác của trí tuệ nhân tạo – cơ bản là tạo ra những điều không có thật – nhưng đây là một vấn đề đáng ngạc nhiên khi nó xuất hiện trong việc chuyển văn bản, nơi mà bạn mong đợi văn bản sẽ chính xác theo âm thanh đang được chuyển văn bản.

Thay vì văn bản chính xác, các nhà nghiên cứu cho biết rằng Whisper đã thêm vào mọi thứ từ bình luận về chủng tộc đến các phương pháp điều trị y tưởng vào văn bản. Và điều này có thể đặc biệt tàn khốc khi Whisper được áp dụng trong bệnh viện và các bối cảnh y tế khác.

Một nhà nghiên cứu của Đại học Michigan đang nghiên cứu các cuộc họp công cộng đã phát hiện ra ảo giác trong tám trong mỗi 10 văn bản chuyển văn bản âm thanh. Một kỹ sư học máy nghiên cứu hơn 100 giờ chuyển văn bản từ Whisper và phát hiện ảo giác trong hơn một nửa số chúng. Và một nhà phát triển đã báo cáo rằng họ phát hiện ảo giác trong gần hết 26.000 bản chuyển văn bản mà họ tạo ra với Whisper.

Một người phát ngôn viên của OpenAI cho biết công ty đang “liên tục làm việc để cải thiện độ chính xác của các mô hình của chúng tôi, bao gồm việc giảm ảo giác” và lưu ý rằng các chính sách sử dụng của họ cấm sử dụng Whisper “trong một số ngữ cảnh ra quyết định quan trọng.”

“Chúng tôi cảm ơn các nhà nghiên cứu đã chia sẻ những khám phá của họ,” họ nói.

#OpenAI #Whisper #ảogiac #sựkiệnhosonay

Nguồn: https://techcrunch.com/2024/10/26/openais-whisper-transcription-tool-has-hallucination-issues-researchers-say/

Software engineers, developers, and academic researchers have serious concerns about transcriptions from OpenAI’s Whisper, according to a report in the Associated Press.

While there’s been no shortage of discussion around generative AI’s tendency to hallucinate — basically, to make stuff up — it’s a bit surprising that this is an issue in transcription, where you’d expect the transcript closely follow the audio being transcribed.

Instead researchers told the AP that Whisper has introduced everything from racial commentary to imagined medical treatments into transcripts. And that could be particularly disastrous as Whisper is adopted in hospitals and other medical contexts.

A University of Michigan researcher studying public meetings found hallucinations in eight out of every 10 audio transcriptions. A machine learning engineer studied more than 100 hours of Whisper transcriptions and found hallucinations in more than half of them. And a developer reported finding hallucinations in nearly all the 26,000 transcriptions he created with Whisper.

An OpenAI spokesperson said the company is “continually working to improve the accuracy of our models, including reducing hallucinations” and noted that its usage policies prohibit using Whisper “in certain high-stakes decision-making contexts.”

“We thank researchers for sharing their findings,” they said.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *