Cách Trao Đổi AI Tạo Ra Giải Pháp Thiết Kế Lớn

Sự kiện ngày hôm nay: Sử dụng Trí tuệ nhân tạo Tạo ra ý tưởng thiết kế lớn. #AI #Trí_tuệ_nhân_tạo #Ý_tưởng_thiết_kế

Tôi là một người nghệ sĩ kém cỏi. Mặc dù tôi thích thử nghiệm với thiết kế 3D, nhưng tôi không có khả năng vẽ và kỹ năng vẽ tranh của tôi còn tồi tệ hơn. Tuy nhiên, điều đó không ngăn tôi có quá nhiều ý tưởng sáng tạo và thật là khiến tôi mất động lực khi không thể biến những ý tưởng đó thành hiện thực. Trí tuệ nhân tạo tạo ra hình ảnh, khi sử dụng đúng cách, có thể giúp những người có ý tưởng lớn mà kỹ năng ít nâng ý tưởng đó lên một tầm cao mới trong thế giới thực.

Học máy và Trí tuệ nhân tạo đang là xu hướng, với các công ty như OpenAI, Google và những người khác nỗ lực mang đến cho chúng ta những mô hình ngôn ngữ lớn có khả năng phản hồi tự nhiên. Trong thế giới hình ảnh, các công ty đang sử dụng Trí tuệ nhân tạo tạo nghệ thuật, cho phép chúng ta tạo hình ảnh chỉ bằng cách dùng từ ngữ (Midjourney), hoặc tạo và điều chỉnh ảnh bằng Trí tuệ nhân tạo (Adobe). Những công cụ này có cơ hội làm nghệ thuật trở nên dễ tiếp cận một cách chưa từng thực hiện trước đây.

Tôi là người thích tạo ra, người yêu thích tạo ra những vật thể trong thế giới thực, nhưng dường như trí tuệ nhân tạo sẽ không thực sự giúp tôi ở điều đó. Dĩ nhiên, một số máy in 3D của tôi, chẳng hạn như AnkerMake M5, sử dụng trí tuệ nhân tạo để phát hiện lỗi trong quá trình in, nhưng nó chỉ mới khá cơ bản. Tôi chưa thấy điều gì khiến tôi nghĩ rằng trí tuệ nhân tạo có thể giúp tôi thực hiện ý tưởng của mình. Đó là cho đến khi tôi xem video từ một người khác, Andrew Sink, người đã sử dụng câu lệnh văn bản thông qua ChatGPT để tạo ra một đối tượng 3D có thể được in 3D tại nhà bằng mã code.

“Anh đã buộc phải đe dọa để lỡ một chuyến bay vì anh đã bị mê hoặc lần đầu tiên khi thử!” Sink nói với tôi. “Nhìn thấy ChatGPT tạo ra một tập tin .STL trông giống như một mô hình 3D đã là một trải nghiệm hứng thú.”

Một tập tin .STL là một tập tin có thể in 3D sử dụng một tập hợp lệnh để tạo ra các tam giác gọi là các mặt. Sink đã sử dụng ChatGPT để tạo ra tập tin .STL, hoàn toàn né qua quá trình thiết kế và đặt nó vào tay trí tuệ nhân tạo, và nó đã hoạt động. Đó chỉ là một khối đơn giản, nhưng đây là lần đầu tiên tôi nghĩ về cách trí tuệ nhân tạo có thể tạo ra những sản phẩm hữu hình trong thế giới vật lý.

Sink thừa nhận rằng trí tuệ nhân tạo phát sinh vẫn cần sự giám sát của những người có kiến thức kỹ thuật: “Sau khi xem xét kỹ hơn (như được ghi lại qua YouTube Short), tập tin đã có nhiều vấn đề và cần phải chỉnh sửa bằng cách chỉnh sửa lưới mạng, điều mà nhiều người dùng có thể không mong đợi. Điều này đưa tôi trở lại thực tế và nhắc tôi nghĩ về ChatGPT như một công cụ để sử dụng trong quy trình công việc, không phải là một giải pháp hoàn chỉnh.”

Tuy nhiên, điều này mở ra cánh cửa cho những điều mới mẻ hơn. Có những công ty mới đã bắt đầu phát triển, sử dụng trí tuệ nhân tạo phát sinh để tạo nghệ thuật từ các lệnh dựa trên văn bản – được gọi là câu lệnh – và một số kết quả mà những công ty này đang tạo ra thực sự là ngoạn mục.

Nghệ thuật hai chiều đã làm say đắm

Nếu bạn đang tìm kiếm điều gì đó biến từ từ ngữ thành hình ảnh hai chiều, thì khó có thể vượt qua Midjourney. Công ty này chạy dịch vụ của mình chủ yếu qua Discord và tạo ra những hình ảnh tuyệt đẹp từ các câu lệnh văn bản.

Vợ chồng tôi đang làm việc trên một dự án để chuyển đổi căn hầm thành một quán bar thời 1920, hoàn chỉnh với quầy bar, bàn billiard, bảng chơi đá, ghế da và các gian hàng để chơi boardgame. Đó là một dự án đầy tham vọng; chúng tôi cần phải che phủ không gian tường rất rộng, vì vậy chúng tôi muốn thử nghiệm nghệ thuật phát sinh cho các tưởng tượng của chúng tôi. Ý tưởng là mang đến cho chúng tôi những tác phẩm nghệ thuật hoàn toàn độc đáo, phù hợp với phong cách mà chúng tôi mong muốn trong một sự kết hợp màu sắc phù hợp với căn phòng của chúng tôi. Chúng tôi muốn tạo ra một không gian mang đậm nét thập niên 1920 trong hai hình ảnh này từ Midjourney. 

Chúng tôi đã phải học kỹ năng “kỹ thuật khích lệ” để viết các lệnh văn bản chi tiết cần thiết để tạo ra hình ảnh chúng tôi mong muốn. Chúng tôi đã thử hai câu lệnh khác nhau cho các hình ảnh trên.

Hình ảnh bên trái: “Một phong cảnh đường phố thập niên 1920 với những người đàn ông mặc áo vest đi bộ trên vỉa hè. Mọi người đang dùng ô và trời đang mưa. Có một xe điện trong bức tranh với màu đỏ trên xe điện. Hình ảnh sẽ có hiệu ứng ảnh xướng.”

Hình ảnh bên phải: “Một quán bar Art Deco thập niên 1920 với rất nhiều đèn treo và ghế da đỏ. Kiểu ảnh cũ.”

Mặc dù những hình ảnh này không hoàn hảo – hãy xem người đàn ông cầm ô làm mũ trên bức tranh bên trái – nhưng chúng đủ tốt để treo trong căn hầm của chúng

Nguồn: https://www.cnet.com/tech/features/how-generative-ai-helps-bring-big-design-ideas-to-life/#ftag=CAD590a51e

I’m a terrible artist.

Though I dabble with 3D design, I have zero drawing ability and my painting skills are even worse. That doesn’t stop me from having an excess of creative ideas, though, and it’s demotivating not being able to bring those ideas to life. Generative AI, when used properly, can allow people with big ideas and little skill to carry those concepts into the real world.

Machine learning and AI are all the rage, with OpenAI, Google and others striving to give us large language models capable of natural-sounding responses. In the visual world, companies are bringing generative AI to art, allowing us to make images using nothing but words (Midjourney), or by creating and adapting photos with AI (Adobe). These tools have a chance to make art accessible in a way that’s never been achieved before.

I’m a maker, a person who loves to create physical things in the real world, but it seemed like AI wouldn’t really help me with that. Sure, several of my 3D printers, like the AnkerMake M5, use AI to spot errors in the print, but that’s rudimentary at best. I’d seen nothing to make me think AI could help realize my ideas. That is, until I saw a video from another maker, Andrew Sink, who used text prompts through ChatGPT to create a 3D object that could be 3D printed at home using code.

“I almost missed a flight because I was so captivated the first time I tried it!” Sink told me. “Seeing ChatGPT produce what looked like a 3D model in the form of an .STL file was an exhilarating experience.”

An STL file is a 3D printable file that uses a set of instructions to create triangles called faces. Sink used ChatGPT to create the STL file, completely circumventing the design process and putting it in the hands of AI, and it worked. It was a simple cube, but this was the first time I thought about how AI could produce tangible products in the physical world.

Sink is the first to admit that generative AI still needs some supervision by someone with technical chops: “Upon closer examination (as documented via YouTube Short), the file had multiple issues and required cleanup in the form of mesh editing, something that many users will likely not expect. This brought me back to reality, and reminded me to think about ChatGPT as a tool to be used in a workflow, and not a complete solution.”

However, it does open the door to something more. New companies have started springing up, using generative AI to create artwork from text-based commands — called prompts — and some of the results these companies are producing are spectacular.

Two-dimensional art is already breathtaking

If you’re looking for something that transforms words into 2D imagery, it’s hard to beat Midjourney. The company runs its service mainly through Discord and produces stunning images from text prompts.

My wife and I are working on a project to convert our basement into a 1920s speakeasy, complete with a bar, pool table, dartboard, leather couches, and booths to play board games. It’s ambitious; there’s a lot of wall space we need to cover, so we wanted to try some generative art for our walls. The idea was to give us completely unique art in the exact style we wanted in a color scheme that matched our room.

We wanted to create a good 1920s feel in both images from Midjourney. 

Illustration by Midjourney

We had to learn the craft of “prompt engineering” to write the kind of detailed text prompts required to produce the image we wanted. We tried two different prompts for the images above.

Left image: “A 1920s street scene with suited men walking on the sidewalk. People have umbrellas open and it is raining. A tram is in the picture with a red color on the tram. Grainy photograph.”

Right image: “A 1920s Art Deco speakeasy with lots of hanging lights and red leather couches. Old photograph style.”

While the images themselves aren’t perfect — check out the gentleman with an umbrella for a hat on the left of the image — they’re good enough to be hung in our basement. The imperfections even add to the fun of having them AI-generated.

Adobe also released a generative AI tool for Photoshop that can do something similar to what Midjourney does, and perhaps go even further, expanding your images or editing them in new and interesting ways. You can see a lot of problems on the fringes of this expanded image from Adobe, but the potential is there.

While the Midjourney image has a few small issues, the Adobe extension has many more, as seen here. 

Illustration by Midjourney and Adobe

Both tools allow you to create art that roughly approximates what your mind’s eye can imagine, without you having to learn the skills to make it yourself or, in the case of these images, go back in time to take the photos.

“For now it’s a tool that actually helps in many ways,” said Fotis Mint, a popular 3D sculptor, when asked about generative AI’s effect on established artists. “And we should definitely start training and include it in our pipeline.” He also said he’d use Midjourney to create a concept sketch of an idea to help visualize it. “It’s very helpful to people that don’t sketch.”

When I asked him about using 3D generative tools, though, he was less enthusiastic. “I would never use a premade 3D mesh to sculpt. Feels like cheating to me.” Nor would he use something Midjourney had generated as the only source of his inspiration. As Midjourney offers four variations — soon to be 16 —  for every text prompt, you can see how an artist like Fotis could use those variations to inspire his art without copying them directly.

3D generative design still has a way to go

A 3D model of a shield with metal banding

It’s much easier to start from a pregenerated model than try to make it yourself.

James Bricknell/CNET

Though incredible sculptors like Fotis Mint may not find 3D generative AI helpful, for people with very little skill, like myself, the idea is more appealing. 

My personal experience in 3D design is limited. I can make fairly simple geometric shapes like card boxes for board games or, at my peak design skill, a medal based on the Order of Merlin from Harry Potter. For more organic shapes, I’m lost, and that holds true for a lot of the 3D-printing community. The spirit is willing, but the flesh is not. Generative AI, even in its infancy, can help bridge that gap.

3DFY.ai‘s 3DFY Prompt app is a great example of how generative AI could help someone create a base model that can later be improved on. Right now the browser-based tool can generate only a few specific categories of models — tables, sofas, swords and shields, etc. — with a limited vocabulary. 3DFY says it uses only in-house data to generate 3D models and doesn’t use data taken from the web. This narrows what it can achieve, but it’s enough to get someone like me started.

A yellow and brown shield on a 3D slicer app

Having a printer that prints in multiple colors is awesome.

James Bricknell/CNET

One of my first prompts for 3DFY was to make a shield. Specifically, I asked it to create a tower shield with a Celtic design around the outside. It turns out the app isn’t ready for intricate detail like Celtic designs. “We trained our AI model to generate more functional and realistic items so not all creative ideas can be produced,” Eliran Dehan, CEO of 3DFY, said in our conversation. Dehan went on to say that due to user feedback, 3DFY is expanding its variability to include more stylistic choices in the future.

As it turned out, I was happy with what it could offer. From that basic starting point, I could spend some time with a 3D model editor like Blender or an iOS app like Nomad Sculpt to add battle damage and customize it further. Detailing something that already exists is much easier than starting from scratch.

Once I was happy with the design, I sent it to my 3D printer — in this case, the Bambu Lab X1 Carbon — and the end result is a 3D model dreamed up by me, built by AI then further refined to reflect my overall vision.

The GitHub page for Shap-e with spinning 3d models in a grid

Is that a plane that looks like a banana or a banana that looks like a plane?

James Bricknell/CNET

The ethics of it all

I’m not here to argue whether generative AI is ethical, a debate that’ll likely rage for years until proper regulation exists. This article assumes that any art has been obtained with permission and that you’re enjoying the fruits of your imagination without stealing from others.

Despite that somewhat utopian statement, questions abound about the ethical use of generative art. Though AI companies often say the work they produce is original, many artists contend the models are trained on real-world art without the original creators’ permission. Because of this, everything that’s produced could be said to be derivative. Some companies, like 3DFY.ai, use only in-house data created specifically to train their model, but smaller data sets limit the range of the final output.

In the future, especially for 3D printing and 3D models, companies could partner to use libraries of 3D files, such as Printables.com‘s massive collection of 3D printable models or Sketchfab‘s library of models for gaming and computer graphics. There, artists could opt in to having their artwork used to train the AI models. This would give machine learning companies access to tens of thousands of 3D models, without ethical problems.

“It is a Wild West with the training data for large language models now, and so I suspect some are scraping and using the 3D designs to train the models, not honoring the licenses,” said Josef Prusa, CEO of 3D-printer maker Prusa Research and the founder of Printables.com, via Twitter DM. “The subset for models with licenses to even allow that is tiny.”

When I asked Prusa about an opt-in system for designers who use Printables, he said, “We are building the Printables community by supporting the creators, and just the idea of training a model on their unique creations doesn’t feel right.”

Is it overly optimistic to think we can overcome these ethical hurdles? Naive even? Maybe. But now’s the time for us to steer this software in the right direction. AI is simply an input/output mechanic; you put data in and you get data out. Setting guidelines early on as to what is an acceptable input will be the key to making this technology work for us. I choose to believe we can be utopian, but then, I was raised on Star Trek.

The future is bright for those with imagination

The crew of the USS Enterprise-D standing in the holodeck in front of a metal table

The Holodeck is the ultimate maker space. I can’t wait for it to be real. 

Paramount

Troi: Computer, show me a rectangular conference table.
La Forge It’s too high. Computer, reduce the height of the table by 25 percent.
Worf No, the table was smaller. And it was inclined. Computer, decrease the table’s surface area by 20 percent and incline the top 15 degrees.
Riker: No, it wasn’t made of wood. It was smoother, more metallic.
Troi: Computer, make this a metal table.

The above conversation is from an episode of Star Trek: The Next Generation called Schisms, where crew members ask the Holodeck to build them a table they’ve all seen in their dreams. They use voice commands to slowly tweak the look and shape until they arrive at what turned out to be the examination table in a shared alien abduction.

Currently, none of today’s generative AI models can handle this level of design adjustment. Iterative design will be the crowning achievement of AI-powered generative design. Without it, we can’t tweak our models to be what we want them to be. I can see a future where voice-activated design will be easy, helpful and precise, something only possible with an LLM.

My imagination holds wonders, as do countless other people’s. We simply lack the skill to move it from the brain to the real world, and, while we like to tell people that, “You can do anything you set your mind to,” the grim reality is, that isn’t the case. Having an AI that translates our words will democratize art in a way that’s helpful for everyone.

For now, being able to generate your own 3D models won’t take away from professional sculptors. If I wanted a detailed sculpt of my face, wrinkles and all, I would pay someone like Fotis Mint to do it, and it would be mind-blowing. However, if I want a “patio door handle, 30 centimeters long, 25 millimeters deep, with a round edge and two screw holes 10 centimeters in from the edge,” I should be able to do that quickly and easily without commissioning someone to do it.

Though there’s a lot of fear surrounding generative AI, from the conversations I’ve had with designers, coders and hobbyists who are looking to the future, they see AI as a tool to be used in their workflow, rather than a replacement for that work. By automating mundane tasks, or by creating something to inspire, generative AI can free up time for artists to become even better in the medium they choose.

For someone like me, whose progress is limited by constraints on time and natural talent, these same tools can help to get over the first hurdle and make it possible to bring thoughts to life.

If generative AI is here to stay, its ultimate goal should be to unleash all our creativity, but it’ll be a long time, if ever, before it can replace true artistry.


Editors’ note: CNET is using an AI engine to help create some stories. For more, see this post.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *