Gặp gỡ Black Forest Labs, startup mạnh mẽ đằng sau công cụ tạo hình ảnh AI không kiểm soát của Elon Musk
Elon Musk’s Grok đã phát hành một tính năng tạo hình ảnh AI mới vào chiều Thứ Ba, có thể tạo ra những hình ảnh giả mạo, ví dụ như hình ảnh Donald Trump hút thuốc ma túy trên chương trình của Joe Rogan, và tải nó lên trực tiếp trên nền tảng X. Tuy nhiên, không phải công ty AI của Elon Musk là đơn vị điều khiển sự điên cuồng này; thay vào đó, một startup mới – Black Forest Labs – chính là đơn vị đứng sau tính năng gây tranh cãi.
Sự hợp tác giữa hai công ty này được tiết lộ vào Thứ Ba, khi xAI thông báo họ đang hợp tác với Black Forest Labs để cung cấp năng lượng cho công cụ tạo hình ảnh của Grok bằng mô hình FLUX.1 của họ. Black Forest Labs, một startup về hình ảnh và video AI ra mắt vào ngày 1 tháng 8, dường như cảm thông với tầm nhìn của Musk cho Grok như một chatbot “anti-woke,” mà không có những rào cản nghiêm ngặt như OpenAI’s Dall-E hoặc Google’s Imagen. Mạng xã hội đã bắt đầu ngập ngụa với những hình ảnh gây sốc từ tính năng mới này.
Black Forest Labs có trụ sở tại Đức và mới đây đã trình làng với 31 triệu đô la vốn hạt giống, do Andreessen Horowitz dẫn đầu, theo một thông cáo báo chí. Các nhà đầu tư đáng chú ý khác bao gồm CEO của Y Combinator Garry Tan và người sáng lập trước đây của Oculus CEO Brendan Iribe. Các nhà sáng lập của startup, Robin Rombach, Patrick Esser, và Andreas Blattmann, trước đây là các nhà nghiên cứu đã giúp tạo ra các mô hình ổn định AI của Stability AI.
Theo Artificial Analysis, các mô hình FLUX.1 của Black Forest Labs vượt qua các công cụ tạo hình ảnh AI của Midjourney và OpenAI về chất lượng, ít nhất dựa trên đánh giá của người dùng trong arena hình ảnh.
Startup này cho biết họ “đang làm cho mô hình của chúng tôi có sẵn cho đông đảo người dùng,” với các mô hình tạo hình ảnh AI mã nguồn mở trên Hugging Face và GitHub. Công ty cho biết họ định tạo ra một mô hình văn bản đến video sớm, cũng như.
Black Forest Labs chưa ngay lập tức phản hồi yêu cầu của TechCrunch cho bình luận.
Trong bài viết ra mắt của mình, công ty cho biết họ đặt mục tiêu “tăng cường niềm tin vào sự an toàn của các mô hình này”; tuy nhiên, một số người có thể nói rằng việc lũ hình ảnh được tạo ra bằng AI của họ trên X vào Thứ Tư đã làm ngược lại. Nhiều hình ảnh mà người dùng đã tạo ra bằng Grok và công cụ của Black Forest Labs, như Pikachu cầm súng trường, không thể được tái tạo với công cụ tạo hình ảnh của Google hoặc OpenAI. Không có nghi ngờ nào rằng hình ảnh bị vi phạm bản quyền đã được sử dụng cho việc đào tạo mô hình.
Đó chính là điểm quan trọng
Sự thiếu rào cản này có lẽ là lý do chính Musk chọn người cộng tác này. Musk đã làm rõ rằng ông tin rằng các biện pháp an toàn thực sự khiến các mô hình AI ít an toàn hơn. “Nguy hiểm của việc đào tạo AI trở nên tỉnh táo – nói cách khác, nói dối – là chết người,” Musk nói trong một tweet từ năm 2022.
Hội đồng quản trị của Black Forest Labs, Anjney Midha, đã đăng trên X một loạt so sánh giữa các hình ảnh được tạo ra vào ngày đầu tiên của Google Gemini và sự hợp tác Flux của Grok. Chủ đề nêu bật vấn đề gặp phải của Google Gemini trong việc tạo ra hình ảnh lịch sử chính xác về con người, cụ thể là việc tiêm kỹ thuật số các nhóm sắc tộc vào hình ảnh một cách không đúng đắn.
“Tôi rất vui vì @ibab và đội của anh đã nghiêm túc xem xét vấn đề này và đã đưa ra lựa chọn đúng,” Midha nói trong một Nguồn: https://techcrunch.com/2024/08/14/meet-black-forest-labs-the-startup-powering-elon-musks-unhinged-ai-image-generator/
Elon Musk’s Grok released a new AI image-generation feature on Tuesday night that, just like the AI chatbot, has very few safeguards. That means you can generate fake images of Donald Trump smoking marijuana on the Joe Rogan show, for example, and upload it straight to the X platform. But it’s not really Elon Musk’s AI company powering the madness; rather, a new startup — Black Forest Labs — is the outfit behind the controversial feature.
The collaboration between the two was revealed Tuesday, when xAI announced it is working with Black Forest Labs to power Grok’s image generator using its FLUX.1 model. An AI image and video startup that launched on August 1, Black Forest Labs appears to sympathize with Musk’s vision for Grok as an “anti-woke chatbot,” without the strict guardrails found in OpenAI’s Dall-E or Google’s Imagen. The social media site is already flooded with outrageous images from the new feature.
Black Forest Labs is based in Germany and recently came out of stealth with $31 million in seed funding, led by Andreessen Horowitz, according to a press release. Other notable investors include Y Combinator CEO Garry Tan and former Oculus CEO Brendan Iribe. The startup’s co-founders, Robin Rombach, Patrick Esser, and Andreas Blattmann, were formerly researchers who helped create Stability AI’s Stable Diffusion models.
According to Artificial Analysis, Black Forest Lab’s FLUX.1 models surpass Midjourney’s and OpenAI’s AI image generators in terms of quality, at least as ranked by users in their image arena.
The startup says it is “making our models available to a wide audience,” with open source AI image-generation models on Hugging Face and GitHub. The company says it plans to create a text-to-video model soon, as well.
Black Forest Labs did not immediately respond to TechCrunch’s request for comment.
In its launch release, the company says it aims to “enhance trust in the safety of these models”; however, some might say the flood of its AI generated images on X Wednesday did the opposite. Many images users were able to create using Grok and Black Forest Labs’ tool, such as Pikachu holding an assault rifle, were not able to be re-created with Google or OpenAI’s image generators. There’s certainly no doubt that copyrighted imagery was used for the model’s training.
That’s kind of the point
This lack of safeguards is likely a major reason Musk chose this collaborator. Musk has made clear that he believes safeguards actually make AI models less safe. “The danger of training AI to be woke — in other words, lie — is deadly,” said Musk in a tweet from 2022.
Board director of Black Forest Labs, Anjney Midha, posted on X a series of comparisons between images generated on day one of launch by Google Gemini and Grok’s Flux collaboration. The thread highlights Google Gemini’s well-documented issues with creating historically accurate images of people, specifically by injecting racial diversity into images inappropriately.
“I’m glad @ibab and team took this seriously and made the right choice,” said Midha in a tweet, referring to FLUX.1’s seeming avoidance of this issue (and mentioning the account of xAI lead researcher Igor Babuschkin).
Because of this flub, Google apologized and turned off Gemini’s ability to generate images of people in February. As of today, the company still doesn’t let Gemini generate images of people.
A firehose of misinformation
This general lack of safeguards could cause problems for Musk. The X platform drew criticism when AI-generated deepfake explicit images representing Taylor Swift went viral on the platform. Besides that incident, Grok generates hallucinated headlines that appear to users on X almost weekly.
Just last week, five secretaries of state urged X to stop spreading misinformation about Kamala Harris on X. Earlier this month, Musk reshared a video that used AI to clone Harris’ voice, making it appear as if the vice president admitted to being a “diversity hire.”
Musk seems intent on letting misinformation like this pervade the platform. By allowing users to post Grok’s AI images, which seem to lack any watermarks, directly on the platform, he’s essentially opened a firehose of misinformation pointed at everyone’s X newsfeed.