κ°μ
λ Έμ΄μ¦κ° λ§μ μΆλ ₯μμ μ μ μΆλ ₯μΌλ‘ λ§λλ κ³Όμ μΌλ‘ κ³ νμ§ μμ± λͺ¨λΈμ μΆλ ₯μ λ§λλ κ°κ°μ λ°λ³΅λλ μ€ν μ λ§μ κ³μ°μ΄ νμν©λλ€. 𧨠Diffuserμ λͺ©ν μ€ νλλ λͺ¨λ μ¬λμ΄ μ΄ κΈ°μ μ λ리 μ΄μ©ν μ μλλ‘ νλ κ²μ΄λ©°, μ¬κΈ°μλ μλΉμ λ° νΉμ νλμ¨μ΄μμ λΉ λ₯Έ μΆλ‘ μ κ°λ₯νκ² νλ κ²μ ν¬ν¨ν©λλ€.
μ΄ μΉμ
μμλ μΆλ‘ μλλ₯Ό μ΅μ ννκ³ λ©λͺ¨λ¦¬ μλΉλ₯Ό μ€μ΄κΈ° μν λ°μ λ°(half-precision) κ°μ€μΉ λ° sliced attentionκ³Ό κ°μ νκ³Ό μλ Ήμ λ€λ£Ήλλ€. λν torch.compile
λλ ONNX Runtimeμ μ¬μ©νμ¬ PyTorch μ½λμ μλλ₯Ό λμ΄κ³ , xFormersλ₯Ό μ¬μ©νμ¬ memory-efficient attentionμ νμ±ννλ λ°©λ²μ λ°°μΈ μ μμ΅λλ€. Apple Silicon, Intel λλ Habana νλ‘μΈμμ κ°μ νΉμ νλμ¨μ΄μμ μΆλ‘ μ μ€ννκΈ° μν κ°μ΄λλ μμ΅λλ€.