Meta ra mắt công cụ AI mới nhất của mình, Movie Gen

Meta vừa công bố một công cụ trí tuệ nhân tạo mới nhất của mình, Movie Gen. Công cụ này giúp người dùng biến văn bản đơn giản thành hình ảnh, video và các đoạn audio. #Meta #MovieGen

Movie Gen của Meta cho phép người dùng nhập văn bản và tự động tạo video mới, cá nhân hóa video, chỉnh sửa video và tạo âm thanh, tất cả được đào tạo trên “kết hợp dữ liệu được cấp phép và các bộ dữ liệu công cộng.” Nếu thấy điều đó giống với OpenAI’s Sora, thì đấy là vì chúng có khá nhiều điểm tương đồng. #AI #GenerativeAI

Movie Gen là làn sóng thứ ba trong công việc trí tuệ nhân tạo của Meta, kết hợp tất cả các modalities trước đó. “Tương tự các thế hệ trước,” Meta viết trong một bài đăng trên blog, “chúng tôi dự đoán rằng các mô hình này sẽ giúp tạo ra nhiều sản phẩm mới có thể tăng tốc sự sáng tạo.” #Creativity #Innovation

Meta lưu ý rằng “trí tuệ nhân tạo tạo ra không thể thay thế cho công việc của các nghệ sĩ và nhà làm phim”, nhưng công ty nói rằng họ “tin vào sức mạnh của công nghệ này để giúp mọi người biểu hiện bản thân mình theo cách mới và cung cấp cơ hội cho những người khác không có khả năng đó.” #Artists #Tech

“Hy vọng của chúng tôi là có một ngày trong tương lai, mọi người sẽ có cơ hội mang tầm nhìn nghệ thuật của mình vào đời sống và tạo ra video và âm thanh chất lượng cao bằng Movie Gen,” bài đăng trên blog nói. #Future

Toàn bộ bài viết về công nghệ mới này tập trung vào tương lai, chú ý rằng bạn không thể thực sự sử dụng Movie Gen ngay bây giờ. Chris Cox, giám đốc sản phẩm của Meta, viết trên Threads rằng công ty không “sẵn sàng phát hành sản phẩm này trong tương lai gần — vẫn quá tốn kém và thời gian tạo ra quá dài — nhưng chúng tôi muốn chia sẻ nơi chúng tôi đang ở vì các kết quả đang trở nên ấn tượng.” #ChrisCox

Công ty nói rằng họ đang cố gắng điều chỉnh mô hình trước khi ra mắt công chúng. “Khi chúng tôi tiếp tục cải thiện mô hình và tiến đến một việc phát hành tiềm năng trong tương lai, chúng tôi sẽ làm việc chặt chẽ với các nhà làm phim và người tạo để tích hợp ý kiến phản hồi của họ,” Meta viết trong bài đăng trên blog. “Bằng cách tiếp cận hợp tác, chúng tôi muốn đảm bảo chúng tôi đang tạo ra những công cụ giúp mọi người nâng cao sự sáng tạo bẩm sinh của họ theo các cách mới mà họ có thể chưa bao giờ mơ đến.” #Collaboration #ArtisticVision

(Viết lại từ bài viết trên Mashable ngày hôm nay về công nghệ mới của Meta với hashtag sự kiện Movie Gen)

Nguồn: https://mashable.com/article/meta-movie-gen-ai

Meta just announced a new generative AI model to help users turn simple text into images, videos, and audio clips.

Meta Movie Gen allows users to input text and automatically generate new videos, personalize videos, do video editing, and generate audio, all of which is trained on a “combination of licensed and publicly available datasets.”

If that seems a lot like OpenAI’s Sora, that’s because it is quite similar. But Movie Gen builds upon Meta’s previous work with AI — you might remember, or even use, Llama Image, for instance. But Movie Gen is the third wave of its generative AI work, which Meta says combines all of its previous modalities. “Similar to previous generations,” Meta wrote in a blog post, “we anticipate these models enabling various new products that could accelerate creativity.”

Meta notes that “generative AI isn’t a replacement for the work of artists and animators,” but says the company “believe(s) in the power of this technology to help people express themselves in new ways and to provide opportunities to people who might not otherwise have them.”

Mashable Light Speed

“Our hope is that perhaps one day in the future, everyone will have the opportunity to bring their artistic visions to life and create high-definition videos and audio using Movie Gen,” the blog post reads.

The entire post about this new technology is focused on the future, noting that you can’t actually use Movie Gen yet.

Chris Cox, Meta’s chief product officer, wrote on Threads that the company isn’t “ready to release this as a product anytime soon — it’s still expensive and generation time is too long — but we wanted to share where we are since the results are getting quite impressive.”

The company said it was looking to tweak the model in the lead-up to it hitting the public.

“As we continue to improve our models and move toward a potential future release, we’ll work closely with filmmakers and creators to integrate their feedback,” Meta wrote in the blog post. “By taking a collaborative approach, we want to ensure we’re creating tools that help people enhance their inherent creativity in new ways they may have never dreamed would be possible. Imagine animating a ‘day in the life’ video to share on Reels and editing it using text prompts, or creating a customized animated birthday greeting for a friend and sending it to them on WhatsApp. With creativity and self-expression taking charge, the possibilities are infinite.”


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *