Playground

해결해야 할 이슈

예시 문장

![](<https://cdn.mathpix.com/cropped/2023_12_28_69c62e62e3b40bf1dffbg-03.jpg?height=1041&width=1789&top_left_y=176&top_left_x=165>)

Figure 1: Number of search results on Google Scholar with different keywords by year 3

![](<https://cdn.mathpix.com/cropped/2023_12_28_69c62e62e3b40bf1dffbg-03.jpg?height=716&width=873&top_left_y=1344&top_left_x=168>)

Figure 2: Annual number of preprints posted under the cs.AI category on arXiv.org
원문(English) 번역(Korean)
Despite their sample quality, our models do not have competitive log likelihoods compared to other likelihood-based models. 샘플 품질에도 불구하고, 우리 모델은 다른 우도 기반(likelihood-based) 모델에 비해 경쟁력 있는 로그 가능성(log likelihoods)을 가지고 있지 않습니다.
Our models do, however, have log likelihoods better than the large estimates annealed importance sampling has been reported to produce for energy based models and score matching. 그러나 우리 모델은 에너지 기반 모델(energy based models) 및 점수 일치(score matching)에 대해 생성되는 것으로 보고된 어닐링된 중요도 샘플링(importance sampling)보다 더 나은 로그 가능성을 가지고 있습니다.
We focus on Latent Diffusion Models since they can perform a wide range of generative tasks. This work shows that simply fine-tuning a small part of the generative model. 우리는 잠재 확산 모델(Latent Diffusion Models)에 초점을 맞추고 있습니다. 이 모델은 다양한 생성 작업을 수행할 수 있습니다. 이 연구는 생성 모델의 일부를 단순히 세밀조정(fine-tuning)함으로써 이루어집니다.
We also use the usual learned linear transformation and softmax function to convert the decoder output to predicted next-token probabilities 우리는 또한 학습된 선형 변환(linear transformation)과 소프트맥스 함수(softmax function)를 사용하여 디코더 출력을 예측된 다음 토큰 확률로 변환합니다.