AIGC大熱后,設計師林儷和版師張宇都覺得自己混得比對方慘,經營模特攝影工作室的“浪豬灰頭”也覺得正在失去生意。
4萬億服裝行業,正在被新一波AI技術改變,且沖擊和機遇并存——麥肯錫分析,未來3到5年,生成式AI可能會幫助服裝、時尚及奢侈品行業的營業利潤創造1500億美元的增量,樂觀估計可高達2750億美元。
億邦動力注意到,AIGC對服裝行業的影響主要集中于商品企劃、產品設計、零售終端三個環節,AIGC提升設計師效率、數字人+3D服裝給消費者帶來新體驗,這些新內容都將給服裝行業帶來新機會。
只不過,要想解決行業內從設計到生產到營銷多環節的難題,并非易事。服裝行業也曾經過幾輪AI洗禮,從RNN(遞歸神經網絡,1990年提出)到GAN(生成對抗網絡,2014年提出)到如今的Diffusion(擴散模型),每一波AI都試圖打通整個產業鏈。那么,這一輪生成式AI會對服裝行業產生哪些影響?AIGC將影響哪些崗位就業?AI能力外溢到供應鏈,能夠產生多大影響?
設計師和版師是服裝設計中的主要崗位,一個負責將天馬行空的靈感變成一張張圖紙,一個負責將圖紙變成樣衣。
Midjourney和Stable Diffusion一度給設計師林儷帶來很大的職業生涯危機,輸入提示詞,5秒內生成六張設計圖,還可以不停更新。林儷從事快時尚設計快5年,見過不少設計高手,還是被Stable Diffusion的生成效果驚艷了一把,“關鍵是速度快且量大,感覺分分鐘要失業。”
“上新”是快時尚的命脈,品牌企業對創造力和效率有極致追求。堅持用了半年Midjourney和Stable Diffusion,林儷放心下來,“大模型確實在生成速度上遠超設計師,但AIGC只是一個素材生成方式,輸入什么提示詞,需要哪些元素,到底要用哪張,這些都需要我們來做選擇。我現在的靈感圖都由AIGC完成,效率大概提升了3倍。”
而且,AIGC目前只是在單款服裝的設計上提供了靈感。除了單款設計,設計師還需要做一些系列企劃——比如當季主推的款有哪些系列,哪些款式搭配起來好看,常規款和主推款怎么搭配。甚至這些款式在門店的陳列,都得在設計師企劃時去規劃——主推款式放在什么位置,效果如何,在門店如何陳列。顯然這些工作內容都超出AIGC的范圍。
“單從款式設計上來說,其實絕大多數服裝企業都有自己的版型基礎,也就是大體‘規矩’,在這個‘規矩’內,設計師會去判斷用什么樣的顏色、輔料、裝飾性元素。AIGC就是在這個環節給出靈感和幫助。”林儷補充。
AIGC到底能幫服裝設計師做什么?知衣科技創始人兼CEO鄭澤宇認為主要有三方面:
第一,提供靈感。
第二,快速生成出大量符合提示詞的圖片。
第三,降低設計的成本,提高設計的精度和投產效率比。
“但目前AIGC能夠達到的效果只有第二點,第一和第三步還在測試中,1-2年內實現還有困難。”鄭澤宇補充。
鄭澤宇也認為,AIGC還遠遠談不上取代設計師,“AIGC只是一個素材生成方式,判斷這些圖是否是設計師或品牌方想要的,到底用哪張,這才是最重要的問題。”
版師指從事服裝制版工作的人,制版在整個服裝生產流程中承上啟下——對上,要和設計師溝通樣衣的工藝細節;對下,要向樣衣工或生產工廠交代縫制樣衣的注意事項,把控樣衣(非大貨)質量。
一件衣服的設計圖出來后,還得經歷“打版-修改-再打版-再修改”的過程。“有時候一個裝飾是要2.5厘米還是3.5厘米,得樣衣出來之后再看效果,因為這就是一個感覺的東西,就是大一點小一點,左一點右一點,得來回調整。”林儷回了一個不忍直視的表情。
這個過程往往耗時耗力,“設計師很多是不懂打版的,或者懂得不多,他需要和版師反復溝通,時間成本和溝通成本就會很高。”王華民認為。
和林儷在同一公司的版師張宇也認同AIGC對版師們的威脅,版師要將設計師的2D稿子變成生產需要的CAD圖,同時生產出樣衣,供設計師進行修改。“2D轉3D,這個活兒很專業也很套路化。現在一些復雜的版,我們已經不用自己立裁,而是把3D效果給到設計師去看,讓他們直接在3D上做調整。”張宇說。
在凌迪的Style3D AI產業大模型中,只要將相應的服裝拖入設計框,點擊AI生成版片,幾秒內可以將版片和3D效果獨立出來。

微博賬號“浪豬灰頭”曾發出一張模特攝影工作室的價格表:一天8小時拍攝,需要支出3.6萬元。其中攝影費(包含400張修圖)1萬,男模和女模費用超2萬,化妝費2000元,搭配費4000元。

而在凌迪科技推出的AI產業模型中,這些人員和費用都可以省略,只需輸入關鍵詞,就可以生成“數字模特”。
輸入“歐洲女子的臉型,中分長發,典雅氣質,妝容干凈”,就能生成對應臉型。



萬事利絲綢與無界AI合作,探索AIGC +絲巾設計;
知衣科技與西湖心辰合作,推出服裝產業模型“FASHION DIFFUSION”,要做服裝行業的Midjourney,在找款、改款與設計等場景中提升設計效率;
供應鏈服務企業魔魚發布“魔魚GPT”,提高服裝設計師提高工作效率;
凌迪科技Style3D發布的Style3D AI產業模型,提供AI預測趨勢、AI生成圖案/版片/材質/圖像等功能,試圖構建起數字時尚產業的“基礎設施”。
服裝設計在過去也一直被AI賦能,這一輪AI與此前有什么不同?王華民認為,雖然都是AI,但是10年前的AI、5年前的AI和這2年的AI各不相同,“一個人說自己是AI從業者,你得看看他干的是哪一個AI。”
AI行業經歷了RNN、GAN、Diffusion等多輪迭代,此前的服裝AI都基于GAN,即用生成模型和判別模型相互競爭,生成模型用于創造一個看起來像真圖片的圖片,判別模型用于判斷一張圖片是不是真實的圖片,兩個模型一起對抗訓練,最終兩個模型的能力越來越強,最終達到穩態。
和GAN相比,Diffusion模型只需要訓練生成模型,訓練目標函數簡單,可以實現更優的圖像樣本質量和更好的訓練穩定性。
王華民指出,“GAN的可控性較差,很多東西停留在學術上或者論文上,Diffusion比GAN更容易訓練,同時將可控性整體上了一個臺階,訓練效果也有了很大提升。”
基于Diffusion模型的AIGC有兩個明顯優勢:
1 降低設計工具的使用門檻,提高行業滲透率
以往的服裝設計工作,需要掌握繪畫、PS技能,而在本輪AI產業模型中,通過自然語言描述,就能直接生成設計圖。
比如打開知衣科技的FASHION DIFFUSION使用界面,風格、款式、特征一目了然,只需選擇款式、顏色、材質等選項,10多秒,AI就能生成T臺走秀風格、淘寶抖音商品風格,以及INS小紅書社媒風格等各種風格的款式圖片。

-
2D:是設計師最初在紙面上設計的內容,如草圖或款式圖。 -
2.5D:是版師基于款式圖進行制版,是連接二維和三維的橋梁,可以稱作2.5D。 -
3D:3D數字服裝與數字人(Avatar)結合起來,有了可交互的方式。 -
2D:在服裝展示環節,圖形學技術通過渲染,把三維物體變成2D視覺效果,例如輸出電商上新的圖片或視頻。
?左右滑動查看更多(圖源:億邦智庫)?
在這個局部的產業鏈協同中,前端是數字化設計,中間是數字化款式匹配,后端是數字化供應鏈平臺,“只有在這種協同下,才可以將AIGC的效率優勢發揮出來。我們距離人人都可以當設計師的時間,才會越來越近。”鄭澤宇認為。
文章來源:億邦動力
【免責聲明:本文版權歸原作者所有。為尊重版權,我們盡量標注文章來源,若不愿被轉載或涉及侵權,請及時通過在線客服和郵箱聯系,郵箱地址:wutongtai@wttai.com,我們將第一時間予以刪除】