Despite their sample quality, our models do not have competitive log likelihoods compared to other likelihood-based models. |
샘플 품질에도 불구하고, 우리 모델은 다른 우도 기반(likelihood-based) 모델에 비해 경쟁력 있는 로그 가능성(log likelihoods)을 가지고 있지 않습니다. |
Our models do, however, have log likelihoods better than the large estimates annealed importance sampling has been reported to produce for energy based models and score matching. |
그러나 우리 모델은 에너지 기반 모델(energy based models) 및 점수 일치(score matching)에 대해 생성되는 것으로 보고된 어닐링된 중요도 샘플링(importance sampling)보다 더 나은 로그 가능성을 가지고 있습니다. |
We focus on Latent Diffusion Models since they can perform a wide range of generative tasks. This work shows that simply fine-tuning a small part of the generative model. |
우리는 잠재 확산 모델(Latent Diffusion Models)에 초점을 맞추고 있습니다. 이 모델은 다양한 생성 작업을 수행할 수 있습니다. 이 연구는 생성 모델의 일부를 단순히 세밀조정(fine-tuning)함으로써 이루어집니다. |
We also use the usual learned linear transformation and softmax function to convert the decoder output to predicted next-token probabilities |
우리는 또한 학습된 선형 변환(linear transformation)과 소프트맥스 함수(softmax function)를 사용하여 디코더 출력을 예측된 다음 토큰 확률로 변환합니다. |
|
|