1 point by slswlsek 1 month ago | flag | hide | 0 comments
ComfyUI Wan2.2 T2V 영상 품질 향상을 위한 종합 분석 및 워크플로우 가이드
서론
Wan2.2 모델의 등장으로 AI 기반 영상 생성은 획기적인 발전을 이루었습니다. 특히 ComfyUI의 노드 기반 인터페이스는 크리에이터들에게 Wan2.2 모델의 방대한 기능을 섬세하게 제어할 수 있는 자유를 부여했습니다. 그러나 Wan2.2로 생성된 영상은 종종 만족스럽지 못한 해상도, 부자연스러운 모션, 또는 왜곡된 디테일 등의 품질 문제를 안고 있습니다. 이러한 문제는 모델 자체의 한계와 사용자의 하드웨어 환경, 그리고 워크플로우의 최적화 수준이 복합적으로 작용하여 발생합니다. 본 보고서는 단순히 해상도를 높이는 것을 넘어, 영상 생성의 기본 단계부터 후처리 과정까지 아우르는 포괄적인 품질 향상 전략을 제시합니다. Wan2.2 모델의 잠재력을 최대한 활용하고, 하드웨어적 제약(특히 VRAM)을 극복하며, 최종 결과물의 완성도를 극대화할 수 있는 체계적인 워크플로우를 분석합니다. 이 가이드는 사용자가 자신의 시스템 환경과 창작 목표에 맞춰 최적의 경로를 선택할 수 있도록 돕는 실용적인 로드맵 역할을 수행할 것입니다.
1단계: Wan2.2 영상 생성 단계에서의 품질 최적화 전략
영상 품질은 최종 업스케일링 과정뿐만 아니라, 원본 영상이 생성되는 단계에서부터 결정됩니다. Wan2.2 모델의 특성을 이해하고, K-Sampler 및 LoRA 설정을 정교하게 조작하는 것은 후처리 과정의 효율성을 극대화하는 가장 근본적인 접근법입니다.
1.1. 모델 및 모델 설정 심층 분석: 품질과 효율성의 첫 번째 결정
Wan2.2 모델은 다양한 용도와 성능 최적화를 위해 여러 버전으로 제공됩니다. 핵심 모델로는 T2V-A14B (텍스트-투-비디오)와 TI2V-5B (텍스트/이미지-투-비디오)가 있으며, 이들은 기본적으로 480P 및 720P 해상도를 지원합니다.1 특히 TI2V-5B 모델은 고급 Wan2.2-VAE를 통해 16x16x4의 높은 압축률을 달성하며, 소비자용 그래픽카드인 RTX 4090에서도 720P 해상도와 24fps를 구현할 수 있을 정도로 높은 효율성을 자랑합니다.1 모델 파일의 데이터 타입 또한 성능에 직접적인 영향을 미칩니다. FP16은 최상의 품질을 위한 표준 선택지이지만, VRAM 소모가 크다는 단점이 있습니다. 반면, FP8 (fp8_e4m3fn_fast 가중치 포함)은 VRAM 효율성을 크게 향상시켜 생성 시간을 단축하는 데 기여합니다.3 저사양 GPU 사용자에게는 GGUF 모델이 효과적인 대안이 될 수 있습니다. 이는 6GB에서 8GB VRAM과 같은 제한된 환경에서도 Wan2.2를 실행할 수 있게 해줍니다.4 Wan2.2 모델이 720P 해상도를 지원함에도 불구하고, 4K와 같은 초고해상도를 직접 생성하는 데는 근본적인 한계가 존재합니다.6 모델은 4K를 염두에 두고 훈련되지 않았기 때문에, 무리하게 4K 해상도를 요청하면 디테일이 unsharp해지거나 품질이 저하될 수 있습니다. 따라서 Wan2.2를 활용한 고품질 영상 제작은 모델이 최적으로 작동하는 720P 해상도에서 고품질의 원본 영상을 확보한 뒤, 후처리 단계에서 해상도를 확장하는 다단계 워크플로우로 접근하는 것이 효과적입니다. 이러한 이중 접근법은 전체 작업의 효율성과 최종 결과물의 품질을 모두 높이는 최적의 전략을 구성합니다.
1.2. K-Sampler 설정의 미세 조정: 모션과 디테일의 균형점 찾기
ComfyUI의 Wan2.2 워크플로우는 종종 두 개의 K-Sampler 노드를 사용해 영상 생성의 두 단계를 제어합니다. 이 설정은 영상의 모션 에너지와 구조적 안정성을 미묘하게 조절하는 핵심 매개변수입니다.3 첫 번째 K-Sampler는 High-noise 단계로, 초기 생성 과정에서 창의적인 모션과 큰 변화를 유도합니다. 이 단계에서는 Add Noise를 활성화하고, CFG(Classifier-Free Guidance) 값을 3.5, 총 스텝을 20, 그리고 샘플러는 Euler를 사용하는 것이 권장됩니다.3 특히, 노이즈 적용은 전체 스텝 중 초기 10 스텝 동안만 이루어져, 영상의 큰 그림을 빠르게 잡아냅니다.3 두 번째 K-Sampler는 Low-noise 단계로, 영상의 후반부에서 미세한 디테일을 정교하게 다듬고 안정성을 부여하는 역할을 합니다. 이 단계는 Start at Step을 10부터 시작하여 Start end Step을 10000(최대값)으로 설정함으로써, 안정된 기본 구조 위에 세밀한 노이즈를 더해 디테일을 보강합니다.3 이러한 두 단계의 샘플러 설정은 품질과 속도 사이의 미묘한 균형점을 찾아내는 데 필수적입니다. 스텝 수를 늘리거나 CFG 값을 높이면 일반적으로 디테일이 향상되지만, 이는 생성 시간의 기하급수적인 증가로 이어질 수 있습니다.7 따라서 사용자는 자신의 하드웨어 성능과 생성하고자 하는 영상의 특성(예: 빠르고 역동적인 모션 vs. 안정적인 카메라 워크)에 맞춰 이 두 단계의 설정을 섬세하게 조정해야 합니다.
1.3. LoRA 및 프롬프트 활용: 품질의 미세 조정
고품질 영상 생성을 위해 LoRA(Low-Rank Adaptation)를 활용하는 것은 매우 효과적인 방법입니다. LightX2V Lightning LoRA 8와 같은 전용 LoRA 모델은 4-step만으로도 높은 품질의 결과물을 얻게 해주어 생성 시간을 크게 단축시킵니다. 이 LoRA는 High-noise와 Low-noise K-Sampler에 각각 다른 강도(strength)로 적용될 수 있습니다. 예를 들어, High-noise 단계에는 1.5의 강도를 적용하여 모션에 활력을 불어넣고, Low-noise 단계에는 0.75의 강도를 적용하여 디테일을 안정화하는 방식이 효과적인 것으로 알려져 있습니다.7 또한, 영상의 프롬프트는 단순히 내용을 정의하는 것을 넘어, 영상의 모션과 카메라 움직임을 Wan2.2 모델에 명확하게 전달하는 역할을 합니다.3 "천천히 어깨를 돌리는"( slowly rolls her shoulders), "부드러운 모션"(smooth motion), "카메라가 천천히 줌인하면서 오른쪽으로 팬하는"(the camera slowly zooms in while gently panning right) 등의 구체적인 표현은 모델이 의도한 대로 움직임을 생성하는 데 결정적인 영향을 미칩니다.3
2단계: 생성된 영상의 해상도 및 디테일 강화 기법
Wan2.2 모델이 생성하는 720P 영상을 1080P나 4K와 같은 실질적인 고화질로 확장하기 위해서는 전문적인 후처리 기술이 필수적입니다. 이 과정은 크게 비확산(Non-Diffusion) 기반과 확산(Diffusion) 기반의 두 가지 방법론으로 나뉘며, 각각의 장단점을 명확히 이해하고 활용해야 합니다.
2.1. 비확산(Non-Diffusion) 기반 업스케일링: 속도와 효율성의 선택지
비확산 기반 업스케일링은 가장 널리 사용되는 영상 품질 향상 방법 중 하나입니다. ComfyUI-VideoUpscale_WithModel과 같은 커스텀 노드는 ESRGAN, SwinIR, HAT 등의 모델을 활용하여 픽셀 데이터를 보간하고 기존 디테일을 보존하면서 해상도를 높입니다.9 이 기술은 확산 기반 모델보다 훨씬 빠르고 VRAM 소모가 적어 긴 영상을 처리하는 데 유리합니다.9 또한, 프레임 간 일관성을 잘 유지하여 인공물(artifact)이 적은 깨끗한 결과물을 만들어냅니다.9 이러한 비확산 기반 업스케일링 워크플로우를 구축할 때는 VRAM 효율성을 고려한 메모리 관리 전략이 중요합니다. ComfyUI-VideoUpscale_WithModel 노드는 다음과 같은 세 가지 메모리 전략을 제공하여 다양한 하드웨어 환경을 지원합니다 9: keep_loaded: 모델을 GPU에 상주시켜 최대 속도를 보장합니다. 고사양 GPU(24GB+ VRAM)에 적합합니다. load_unload_each_frame: 각 프레임마다 모델을 GPU에 로드하고 언로드합니다. 속도와 VRAM 사용량 사이의 균형을 제공하며, 중간 사양 GPU에 이상적입니다. cpu_only: 모든 처리를 CPU에서 수행합니다. 속도는 가장 느리지만 VRAM을 거의 사용하지 않아 저사양 시스템에서도 작업이 가능합니다. 또한, Meta Batch Manager 노드를 사용하면 전체 프레임 수를 작은 batch 단위로 나누어 처리함으로써, Out of Memory 에러를 효과적으로 방지할 수 있습니다.5 아래 표는 비확산 업스케일링 모델들의 특징과 권장 용도를 요약한 것입니다. [표 2.1] 비확산 업스케일링 모델별 특징 및 권장 용도 모델명 특징 권장 용도 ESRGAN 뛰어난 디테일 복원 및 노이즈 감소 범용적인 고화질 업스케일링, 실사 이미지/영상 SwinIR 미세한 텍스처와 디테일 보존 사진, 고화질 AI 생성 이미지/영상 AnimeSharp 셀 스타일 아트의 라인 및 색상 보존 애니메이션, 카툰, 일러스트 4x_NMKD-Siax_200k.pth 포토리얼리즘 및 AI 렌더링에 최적화 실사 영상, AI 렌더링 영상
2.2. 확산(Diffusion) 기반 업스케일링 (V2V): 창의적 디테일 강화의 첨단 기술
Wan2.2 T2V 모델 자체를 V2V(Video-to-Video) 업스케일러로 활용하는 방법은 단순한 해상도 확장 이상의 효과를 제공합니다.11 이 고급 기술은 기존 영상을 입력으로 받아, 모델의 강력한 생성 능력을 사용하여 왜곡된 디테일(예: 손가락, 얼굴)을 수정하고 새로운 디테일을 창의적으로 추가하는 데 사용됩니다.11 이 워크플로우는 다음과 같은 단계로 진행됩니다: Wan2.2로 생성된 원본 영상을 VAE-Encode 노드를 사용하여 Latent 공간으로 변환합니다. Latent 공간에서 업스케일링을 수행합니다. 업스케일된 Latent 이미지를 Wan2.2 5B 또는 14B와 같은 저용량 T2V 모델로 재샘플링합니다. 이때 Denoise 값을 낮게 설정(예: 0.2~0.3)하여 원본 영상의 구조를 최대한 보존하면서 새로운 디테일을 추가합니다.11 이 방법은 비확산 기반 업스케일러가 단순히 픽셀을 보간하는 것과 달리, 모델의 생성적 잠재력을 활용하여 원본 영상에 존재하지 않았던 새로운 정보를 "재구성"합니다. 예를 들어, 1600x900 해상도에서 낮은 Denoise 값으로 재샘플링하면, 원본 영상에서 왜곡되었던 얼굴이나 손과 같은 고질적인 문제를 효과적으로 해결할 수 있습니다.11
2.3. 업스케일링 방법론 비교 분석
두 가지 주요 업스케일링 방법론의 특성을 이해하는 것은 사용자의 목표에 맞는 최적의 전략을 수립하는 데 필수적입니다. 비확산 기반 업스케일링: 장점: 빠르고 VRAM 효율성이 뛰어나며, 프레임 간 일관성을 잘 유지하여 인공물 발생이 적습니다. 긴 영상 처리에 적합합니다.9 단점: 새로운 창의적 디테일을 추가하지 못하고, 원본 영상의 왜곡된 부분을 수정하는 데 한계가 있습니다. 확산 기반 업스케일링(V2V): 장점: 왜곡된 디테일을 수정하고, 프롬프트 기반의 새로운 디테일을 추가하여 영상의 품질을 창의적으로 향상시킵니다.11 단점: 비확산 기반보다 훨씬 느리고 VRAM 소모가 많습니다. 특히 1600x900과 같은 고해상도에서는 12GB VRAM GPU로도 프레임당 수십 분의 시간이 소요될 수 있습니다.11 두 방법의 장점을 결합한 하이브리드 워크플로우도 가능합니다. 예를 들어, 먼저 비확산 기반 업스케일러로 해상도를 높여서 빠른 결과를 얻은 후, 확산 기반 업스케일러를 사용하여 특정 디테일(예: 얼굴)을 섬세하게 수정하는 방식입니다. 아래 표는 두 가지 방법론의 주요 특징을 비교한 것입니다. [표 2.2] 업스케일링 방법론 비교 방법론 핵심 원리 장점 단점 추천 용도 비확산(Non-Diffusion) 기반 신경망을 이용한 픽셀 보간 빠르고 효율적, VRAM 적게 소모, 일관성 유지 새로운 디테일 추가 불가, 원본 왜곡 수정 한계 긴 영상, 일반적인 화질 향상 확산(Diffusion) 기반 (V2V) 저용량 T2V 모델 재샘플링 왜곡된 디테일 수정, 창의적 디테일 추가 느리고 VRAM 소모 많음 짧은 클립, 특정 디테일(얼굴, 손) 수정
3단계: 추가 후처리 기술을 통한 최종 품질 완성
해상도와 디테일 외에도, 영상의 시각적 품질은 모션의 부드러움과 인물의 안정성에 크게 좌우됩니다. 다음 단계에서는 이러한 요소들을 보강하는 후처리 기술들을 소개합니다.
3.1. 모션 및 부드러움 향상 (프레임 보간)
AI 생성 영상은 종종 12FPS와 같이 낮은 프레임으로 생성되어 끊기는 듯한 느낌을 줍니다.7 RIFE와 같은 프레임 보간 기술은 영상의 프레임 사이에 중간 프레임을 생성하여 프레임 속도를 높이고 움직임을 부드럽게 만듭니다.10 프레임 보간과 업스케일링의 순서는 전체 작업의 효율성에 중대한 영향을 미칩니다. 한 전문가는 업스케일링을 프레임 보간(RIFE)보다 먼저 수행할 것을 권장합니다.7 그 이유는 낮은 프레임(예: 12FPS)의 원본 영상을 먼저 업스케일하면, 보간 과정에서 처리해야 할 총 프레임 수는 적은 상태에서 이미 고화질이므로, 작업 시간을 단축하고 메모리 사용량을 최적화할 수 있기 때문입니다. 반대로 보간을 먼저 수행하면 프레임 수가 2배로 늘어나므로, 이후 업스케일링 과정에서 처리해야 할 데이터가 기하급수적으로 증가하여 VRAM 병목 현상이 발생할 가능성이 높아집니다.12
3.2. 얼굴 디테일 복원 및 흔들림 완화
AI 생성 영상의 고질적인 문제 중 하나는 불안정하거나 왜곡된 인물의 얼굴입니다. CodeFormer 노드는 영상 내의 얼굴을 감지하고 디테일을 복원하여 더 선명하고 자연스러운 인물 표현을 가능하게 합니다.10 이 노드는 fidelity 값을 조절하여 원본과의 유사성(1.0)과 최대 복원 효과(0.0) 사이의 균형을 맞출 수 있습니다.10 얼굴 복원 외에도, Topaz Video AI와 같은 외부 전문 도구는 Themis와 같은 모델을 통해 모션 블러를 줄이거나 영상의 흔들림을 안정화하는 기능을 제공하여 최종 결과물의 완성도를 높이는 데 기여합니다.13
4단계: 하드웨어 사양별 워크플로우 제안 및 종합 가이드라인
지금까지 논의된 다양한 기술들을 종합하여, 사용자의 GPU VRAM 용량에 따라 최적의 워크플로우를 제시합니다. 이는 모든 사용자에게 하나의 정답이 아닌, 각자의 환경에 맞는 가장 효율적인 솔루션을 제공하기 위함입니다.
4.1. VRAM 용량별 최적 워크플로우 제안
저사양 GPU (6GB12GB VRAM):
생성: Wan2.2 GGUF 또는 FP8 모델을 사용하여 720P 미만(예: 840x480) 해상도의 원본 영상을 생성합니다.4
후처리: ComfyUI-VideoUpscale_WithModel 커스텀 노드를 사용하고, load_unload_each_frame 또는 cpu_only 메모리 전략을 선택합니다. Meta Batch Manager 노드를 활용하여 Out of Memory 에러를 방지하는 것이 필수적입니다.5
보간: 업스케일링 후 RIFE를 사용하여 프레임 보간을 수행합니다.7
결과: 비록 생성 및 업스케일링에 시간이 더 걸리더라도(81프레임에 27분) 1600x900 해상도를 얻을 수 있습니다.11
중급 GPU (12GB16GB VRAM):
생성: Wan2.2 FP16 모델로 720P 해상도의 원본 영상을 생성합니다.1
후처리: V2V 확산 기반 업스케일링을 시도하여 왜곡된 디테일을 수정하고, 필요에 따라 CodeFormer 노드로 얼굴 복원을 병행합니다.
결과: 고화질 영상 생성과 디테일 수정 사이의 균형을 달성합니다.
고사양 GPU (24GB+ VRAM):
생성: Wan2.2 FP16 또는 Q8 모델을 사용하여 720P 또는 그 이상의 해상도(예: 1600x900) 원본 영상을 생성합니다.6
후처리: keep_loaded 메모리 전략을 사용한 비확산 기반 업스케일링과 V2V 확산 기반 업스케일링을 병행하여 최상의 품질과 속도를 추구합니다. 모든 후처리 노드를 하나의 통합된 워크플로우에 배치하여 효율성을 극대화할 수 있습니다.
결과: 최고 품질의 영상 결과물을 가장 빠른 시간 안에 얻을 수 있습니다.
아래 표는 하드웨어 사양별 추천 워크플로우 및 핵심 설정을 요약한 것입니다.
[표 4.1] 하드웨어 사양별 추천 워크플로우 및 핵심 설정
VRAM 용량
추천 모델
워크플로우 (생성 → 후처리)
주요 노드 및 설정값
예상 결과물
6GB-12GB
GGUF, FP8
저해상도 생성 → 비확산 업스케일링 (batching) → 프레임 보간
Meta Batch Manager, Video_Upscale_With_Model (load_unload_each_frame or cpu_only), RIFE
1080P/1440P, 긴 영상 가능, 느린 속도
12GB-16GB
FP16
720P 생성 → V2V 확산 업스케일링
Wan2.2 5B/14B (denoise 0.2-0.3), CodeFormer
고품질 디테일, 왜곡 수정, 중간 속도
24GB+
FP16, Q8
720P 이상 고해상도 생성 → 비확산 & 확산 병행
Video_Upscale_With_Model (keep_loaded), V2V 업스케일링
최상의 품질, 빠른 속도
4.2. ComfyUI 외부 전문 도구 활용: Topaz Video AI의 가치
ComfyUI의 노드 기반 워크플로우는 매우 강력하지만, Topaz Video AI와 같은 외부 전문 소프트웨어를 활용하여 최종 품질을 더욱 끌어올릴 수 있습니다. Topaz Video AI는 Proteus(균형 잡힌 향상), Nyx(노이즈 감소), Iris(얼굴 복원) 등의 전문 AI 모델을 제공하며, 특히 노이즈 감소 및 프레임 보간에서 뛰어난 성능을 보여줍니다.13 ComfyUI-TopazVideoAI와 같은 커스텀 노드를 설치하면 ComfyUI 워크플로우 내에서 Topaz Video AI의 강력한 기능을 자동화된 파이프라인으로 통합할 수 있습니다.15 이는 ComfyUI에서 영상을 생성한 후, 추가적인 수동 작업 없이 Topaz Video AI의 전문적인 기능을 거쳐 최종 결과물을 완성하는 하이브리드 워크플로우를 가능하게 합니다.16
결론: 품질 향상 여정의 요약 및 최종 권고안
Wan2.2 T2V 모델로 생성한 영상의 품질을 높이는 것은 단일한 기술적 해결책이 아닌, "다단계 파이프라인(multi-stage pipeline)" 접근법을 통해 달성되어야 합니다. 1단계: 생성 최적화는 전체 워크플로우의 기초입니다. Wan2.2 모델의 720P 한계를 인지하고, GGUF/FP8 모델, LightX2V LoRA, 그리고 섬세한 샘플러 조정을 통해 후처리하기 좋은 고품질의 원본 영상을 생성하는 것이 가장 중요합니다. 2단계: 해상도 확장은 두 가지 상이한 방법론을 제공합니다. 속도와 프레임 간 일관성이 핵심이라면 비확산 기반(ESRGAN) 업스케일링이 효율적이며, 왜곡된 디테일 수정과 창의적 디테일 추가가 목표라면 확산 기반(V2V) 업스케일링이 더 효과적입니다. 3단계: 최종 완성 단계에서는 모션의 부드러움을 위한 RIFE 프레임 보간, 얼굴 디테일 복원을 위한 CodeFormer를 활용하여 영상의 시각적 완성도를 높여야 합니다. 이때, 업스케일링을 프레임 보간보다 먼저 수행하는 순서의 중요성을 기억하는 것이 작업 효율성을 위한 핵심입니다. 최종 권고: 사용자는 자신의 GPU VRAM 용량에 맞춰 이 모든 단계를 조합한 맞춤형 워크플로우를 구축해야 합니다. 저사양 시스템은 VRAM 효율적인 모델과 비확산 기반 업스케일링 및 Meta Batch Manager를 활용하고, 고사양 시스템은 고해상도 생성과 V2V 업스케일링을 병행하여 최고 품질을 추구할 수 있습니다. 궁극적으로 Wan2.2 T2V 영상 품질을 극대화하는 가장 현명한 방법은 이처럼 각 단계의 장점을 결합한 통합된 접근법을 취하는 것입니다. 참고 자료 Wan-AI/Wan2.2-T2V-A14B - Hugging Face, 8월 14, 2025에 액세스, https://huggingface.co/Wan-AI/Wan2.2-T2V-A14B Wan-Video/Wan2.2: Wan: Open and Advanced Large-Scale Video Generative Models - GitHub, 8월 14, 2025에 액세스, https://github.com/Wan-Video/Wan2.2 NEW Wan 2.2 Video Generation Model in ComfyUI (I2V 14B FP8 ..., 8월 14, 2025에 액세스, https://www.nextdiffusion.ai/tutorials/exploring-the-new-wan22-image-to-video-generation-model-in-comfyui WAN 2.2 ComfyUI Workflow for Low VRAM: High + Low Noise in One File (Works on 6GB, No GGUF) - YouTube, 8월 14, 2025에 액세스, https://www.youtube.com/watch?v=rBAI32tl_hI The ULTIMATE AI Video Upscale for ComfyUI - YouTube, 8월 14, 2025에 액세스, https://www.youtube.com/watch?v=BE-Af_kwhyA what do I set this too for high quality 4k looking video? : r/comfyui - Reddit, 8월 14, 2025에 액세스, https://www.reddit.com/r/comfyui/comments/1m2d0t4/what_do_i_set_this_too_for_high_quality_4k/ How to improve Wan 2.2 i2v quality and speed : r/comfyui - Reddit, 8월 14, 2025에 액세스, https://www.reddit.com/r/comfyui/comments/1mluuf5/how_to_improve_wan_22_i2v_quality_and_speed/ Wan 2.2 ComfyUI Guide: The ULTIMATE Speed vs Quality Tutorial - YouTube, 8월 14, 2025에 액세스, https://www.youtube.com/watch?v=i9BcQ4GwVv4 ShmuelRonen/ComfyUI-VideoUpscale_WithModel: A ... - GitHub, 8월 14, 2025에 액세스, https://github.com/ShmuelRonen/ComfyUI-VideoUpscale_WithModel How to Upscale Videos in ComfyUI - Next Diffusion, 8월 14, 2025에 액세스, https://www.nextdiffusion.ai/tutorials/how-to-upscale-videos-in-comfyui What's your best upscaling method for Wan Videos in ComfyUI? - Reddit, 8월 14, 2025에 액세스, https://www.reddit.com/r/comfyui/comments/1miinkt/whats_your_best_upscaling_method_for_wan_videos/ [Video] AI Video Upscaler using Model | ComfyUI Workflow - OpenArt, 8월 14, 2025에 액세스, https://openart.ai/workflows/jerrydavos/video-ai-video-upscaler-using-model/w7Phq3nLPP75LdV7jvLM Topaz Video AI Review 2025: Is It Worth The Price?, 8월 14, 2025에 액세스, https://unifab.ai/resource/topaz-video-ai-review Run Wan2.2 Image to Video GGUF Models in ComfyUI (Low VRAM) - YouTube, 8월 14, 2025에 액세스, https://www.youtube.com/watch?v=e0GtyjCzIQI Topaz Video AI (Upscale & Frame Interpolation) - RunComfy, 8월 14, 2025에 액세스, https://www.runcomfy.com/comfyui-nodes/ComfyUI-TopazVideoAI/topaz-video-ai choey/Comfy-Topaz: Topaz Photo AI integration for ComfyUI - GitHub, 8월 14, 2025에 액세스, https://github.com/choey/Comfy-Topaz