공지사항

LAB 소개

👀챗GPT로 대표되는 생성AI 시대에 🔎LLM 실험연구실은 보다 실질적인 "활용"에 집중해요. 여러분들은 챗GPT에게 "천천히 심호흡을 하고 차근차근 문제를 풀어봐" 라고 할 때, 정확도가 두 배 이상 향상되는 걸 알고 계셨나요? (34% -> 80.2%) 단순해보이는 이와 같은 실험 결과는 놀랍게도 구글의 딥마인드에서 발표한 논문이어요. [1]

💬챗GPT 같은 LLM 연구는 엄청난 GPU 파워를 가진 OpenAI, MS, Google 등에서만 진행할 수 있는 연구아니냐고요? 직접 LLM을 만드는 게 목표라면 그럴지도 모르지만 응용 연구에서는 그렇지 않아요. 풀고 싶은 문제와, 학습 시킬 수 있는 데이터, LLM 실험 환경만 갖춰진다면 누구나 할 수 있어요. LLM 실험연구방법은 실제 대학에서 재직 중인 랩짱이 알려줄거에요. 데이터는 함께 모을 수 있어요. 풀고 싶은 문제가 있나요? LLM 실험연구실과 함께해요! 🤗

[1] Yang, C., Wang, X., Lu, Y., Liu, H., Le, Q. V., Zhou, D., & Chen, X. (2023). Large language models as optimizers. arXiv preprint arXiv:2309.03409.

LAB 계획

LAB 목표

Archive

📢 LAB 주차별 활동

LAB 발표 자료실

제목 없음

LAB 자료실

온보딩 가이드 v1.1.0

LAB 연구원

LAB 활동 (클릭)

구글드라이브 공유 자료

논문 자료

GPU 서버 지원 안내

팀원들과 연구주제가 달라요

팀별 연구 공간

Team 5 (Edu)

Team 6 (NLP)

Team 7 (LLM)

Team 9 (HCI)

Vision 2

비전1팀

Language (1)

팀이름을 입력해주세요 (1)

팀이름을 입력해주세요 (1)

유태균

팀별 연구 현황판

팀별 연구 진행 상황

LAB 연구원 소개 및 팀 구성