本次測試一共收到三張顯卡,分別是NVIDIA RTX? A4000、NVIDIA RTX? A4500、NVIDIA RTX? A5000顯卡,顯存大小分別是16GB、20GB、24GB,搭配測試的塔式工作站主機(jī)是全新戴爾Precision 3660塔式工作站,搭載第十三代英特爾?酷睿? i7-13700處理器,內(nèi)存為32GB,硬盤為2T+256G SSD。
模型訓(xùn)練的基本要求
Lora與Dreambooth
提到訓(xùn)練模型,我想簡單地介紹一下關(guān)于Stable Diffusion模型訓(xùn)練的基本概念與模型訓(xùn)練對(duì)配置的更低需求(注:這里所指的需求是我結(jié)合官網(wǎng)推薦以及本次測試結(jié)果綜合考量后得到的)!
提到模型的訓(xùn)練,就不得不說一下關(guān)于大模型的基礎(chǔ)模型和微調(diào)模型的概念:
基礎(chǔ)模型
大模型的基礎(chǔ)模型在SD中指的是Stable diffusion:V1.4/V1.5/V2.0等,這些都是大模型,它們泛化性、通用性很好,是官方利用大量的數(shù)據(jù)訓(xùn)練而來。對(duì)于大模型的基礎(chǔ)模型訓(xùn)練我們個(gè)人用戶或者微小企業(yè)而言成本太高了,所以大模型的基礎(chǔ)模型訓(xùn)練不在本次的測試范圍之內(nèi)。
微調(diào)模型
本次測試的主要內(nèi)容是訓(xùn)練微調(diào)模型,而微調(diào)模型的種類很多,其中分為在大模型的基礎(chǔ)模型的基礎(chǔ)上結(jié)合自己的自有數(shù)據(jù)進(jìn)行二次訓(xùn)練,從而得到新的微調(diào)大模型(Dreambooth),以及在大模型基礎(chǔ)模型的基礎(chǔ)上,訓(xùn)練Lora、Embedding、Hypernetwork等微調(diào)模型。
鑒于Embedding、Hypernetwork這兩種微調(diào)模型實(shí)用性目前來看不是很高,所以此次測試主要以訓(xùn)練Lora模型為主。其中新生成的微調(diào)大模型(Dreambooth)就是我們在SD界面中上方所切換的模型。
而微調(diào)模型Lora模型,是我們在大模型生成的基礎(chǔ)上對(duì)畫面的風(fēng)格進(jìn)行微調(diào)時(shí)所調(diào)用的模型。
對(duì)于訓(xùn)練來說,微調(diào)大模型(Dreambooth)和微調(diào)模型(Lora)又分不同的版本,比如SD1.5版本的Dreambooth模型與Lora模型以及SDXL的Dreambooth模型與Lora模型,兩大版本不同的模型在訓(xùn)練過程中對(duì)配置的要求是不一樣的。
如果想要訓(xùn)練SD1.5的微調(diào)模型(Lora),要求我們的硬件顯存必須要6G以上,這是更低要求,而我推薦想要進(jìn)行微調(diào)模型的訓(xùn)練,顯存更好超過8GB。
如果想要訓(xùn)練SD1.5的大模型(Dreambooth),需要我們的硬件顯存必須要12GB以上,這里也是更低要求,我推薦的顯存也是12GB。





客服1