현재 16개 데이타 셋에 대한 Finetuning 진행중
google colab을 통해 finetuning이 가능한지 알아 보기 위해 유튜브를 참고하여 시도
!pip install autotrain-advanced
!pip install huggingface_hub
아래 코드 실행하였더니 유료 버전의 컴퓨팅 자원을 구매하여야만 가능한 것으로 실행 가능한 것으로 보임
!autotrain llm --train --project_name 'llama2-openassistant' --model TinyPixel/Llama-2-7B-bf16-sharded --data_path timdettmers/openassistant-guanco --text_column text --use_peft --use_int4 --learning_rate 2e-4 --train_batch_size 2 --num_train_epochs 3 --trainer sft --model_max_length 2048 --block_size 2048 > training.log &
Traceback (most recent call last): File "/usr/local/bin/autotrain", line 8, in <module> sys.exit(main()) File "/usr/local/lib/python3.10/dist-packages/autotrain/cli/autotrain.py", line 47, in main command = args.func(args) File "/usr/local/lib/python3.10/dist-packages/autotrain/cli/run_llm.py", line 14, in run_llm_command_factory return RunAutoTrainLLMCommand(args) File "/usr/local/lib/python3.10/dist-packages/autotrain/cli/run_llm.py", line 443, in init raise ValueError("No GPU/MPS device found. LLM training requires an accelerator") ValueError: No GPU/MPS device found. LLM training requires an accelerator
colab 우측 상단의 RAM, 디스크 아래 삼각형을 클릭 ‘리소스 보기’를 선택하면 리소스가 없음을 알 수 있고 구매해야 한다는 안내가 나옴