
기획
- 콘텐츠 진흥원 및 모두연에서 전시를 진행하기 위한 기획입니다.
- 사람들이 직접 녹음을 한 목소리에서 Text를 추출하여, 해당 Text 기반 이미지와 사운드를 생성하는 전시 기획
- Sound의 경우 기존 Sample의 tag들을 이용할 예정이며, 사운드 스케이프에 가까운 사운드가 될 예정
- 음악적인 요소는 있을듯?
- Max4Live ⇒ 각 감정마다 Session view 재생
Jupyter Notebook
파트
- Disco Diffusion Model 포팅 → Text 입력 후 이미지 생성하도록 코드 수정
- 참여자 : 창준
- 현재 Colab Notebook 형태로 제공되어 로컬로 사용시 포팅이 필요함
- py 파일 형태로
- 음성인식 한국어 음성을 받아서 명사화 시킨 후 영어로 번역해 Text 데이터 사용
- 참여자 : 중선, 성휴
- Text 기반 감정분석 후 Loop Sample 중 비슷한 감성의 샘플 선택해 재생 (ableton의 m4l로 재생)
- 참여자 : 영운, 창준, 다해
- PM - 소준섭
- 매 주차별로 진행해야되는 부분들 정리해서 공유할 예정
Github 생성
1주차
2주차