IT정보/AI(이미지, LLM 등)

[ ComfyUI ] 이미지를 Claymation 스타일로 바꾸기

카루루1007 2024. 9. 3. 13:53
728x90
반응형

Claymation 스타일은 찰흙으로 빚은 모양의 형태라고 보시면 됩니다.

아래 이미지 같은 스타일을 의미합니다.

 

 준 비 사 항

 

체크포인트 모델 Samaritan 3d Cartoon

LoraCLAYMATE - Claymation Style for SDXL

을 사용했습니다.

 

먼저 Custom Node를 두개 설치합니다.

pythongo로 검색하시면 필요한 것이 검색이 됩니다.

ComfyUI WD 1.4 Tagger
pythongosssss/ComfyUI-Custom-Scripts

 

필요한 노드를 설치하셨으면 ComfyUI를 재시작해줍니다.

 

 노드 만들기

 

먼저 Load Default를 눌러 기본 형태를 불러와 줍니다.

 

다음 Load Lora 노드를 추가합니다.

Load Lora의
입력 부분의 model과 clip은 Load Checkpoint 노드와 연결하고
출력 부분의 Model은 KSampler와 연결
출력 부분의 CLIP은 두 개의 Clip Text Encode(Prompt) 노드와 연결합니다.

 

다음 WD14 Tagger노드, Load Image 노드, String Function 노드를 추가합니다.

그다음 String Function 노드에 마우스 우클릭을 한 후

Conver Widget to Input을 눌러 Convert text_a to Input을 선택합니다.

 

 

WD14 Tagger노드는 아래와 같이 연결합니다.

입력 부분의 Image는 Load Image 노드를 추가하여 연결합니다.

출력 부분의 String는 Clip Text Encode(Prompt) 노드와 연결을 하는데
KSampler의 긍정 프롬프트와 연결된 Clip Text Encode 노드에 마우스 우클릭 후
Convert Widget to Input 선택 → Convert text to Input 선택 한 다음 
Clip Text Encode 노드의 text와 연결합니다.

 

그다음 ImageScaleToTotalPixels 노드, Vae Encode 노드를 추가합니다.

 

ImageScaleToTotalPixels 노드는 아래와 같이 연결합니다.

입력 부분의 Image는 Load Image 노드와 연결합니다.
출력 부분의 Image는 VAE Encode 노드와 연결합니다.

 

마지막으로 VAE Encode의 노드는 다음과 같이 연결합니다.

입력 부분의 vae는 Load Checkpoint의 vae와 연결하고
출력 부분의 LATENT는 KSampler의 latent_image와 연결합니다.

 

이제 노드의 연결은 끝났습니다.

 

 결과물 보기

 

왼쪽은 원본 이미지, 오른쪽은 Claymation 스타일로 변환된 이미지입니다.

 

 

 

 워크플로우

 

세부 설정은 아래 WorlFlow를 참고하시면 됩니다.

Claymation_Style.json
0.01MB

728x90
반응형