export PYTHONPATH=$PYTHONPATH:./ torchrun examples/pytorch/llama/finetune_llama.py \ --work_dir './tmp' \ --model 'skyline2006/llama-7b' \ --train_dataset_name 'alpaca-gpt4-data-zh' \ --train_subset_name 'default' \ --train_split 'train' \ --train_dataset_namespace 'AI-ModelScope' \ --per_device_train_batch_size 4 \ --per_device_eval_batch_size 4 \ --eval_strategy 'by_epoch' \ --eval_interval 1 \ --eval_metrics 'ppl' \ --lr 2e-5 \ --save_strategy no \ --save_best true \ --metric_for_best_model ppl \ --metric_rule_for_best_model min \ --use_lora 1 \ --device_map 'auto' \ --task 'text-generation' \ --model.type 'llama' \ --max_epochs 3 \