76 lines
1.9 KiB
Fish
76 lines
1.9 KiB
Fish
#!/usr/bin/env fish
|
||
|
||
# 创建无chat template的纯llama模型,对齐sglang的generate行为
|
||
# 支持llama3.2的1b和3b型号,以及llama3.1的8b型号
|
||
|
||
function create_llama32_model
|
||
set model_size $argv[1]
|
||
set model_name "llama3.2:$model_size-pure"
|
||
|
||
echo "创建 $model_name 模型..."
|
||
|
||
# 创建临时Modelfile
|
||
echo "FROM llama3.2:$model_size
|
||
TEMPLATE \"\"
|
||
PARAMETER stop \"\"
|
||
PARAMETER stop \"<|start_header_id|>\"
|
||
PARAMETER stop \"<|end_header_id|>\"
|
||
PARAMETER stop \"<|eot_id|>\"
|
||
PARAMETER stop \"USER:\"
|
||
PARAMETER stop \"ASSISTANT:\"
|
||
PARAMETER temperature 1.0
|
||
PARAMETER num_ctx 4096
|
||
PARAMETER seed 1234
|
||
PARAMETER num_predict 100" > Modelfile
|
||
|
||
# 创建模型
|
||
ollama create $model_name -f ./Modelfile
|
||
|
||
# 清理临时文件
|
||
rm Modelfile
|
||
|
||
echo "$model_name 创建完成"
|
||
end
|
||
|
||
function create_llama31_model
|
||
set model_size $argv[1]
|
||
set model_name "llama3.1:$model_size-pure"
|
||
|
||
echo "创建 $model_name 模型..."
|
||
|
||
# 创建临时Modelfile
|
||
echo "FROM llama3.1:$model_size
|
||
TEMPLATE \"\"
|
||
PARAMETER stop \"\"
|
||
PARAMETER stop \"<|start_header_id|>\"
|
||
PARAMETER stop \"<|end_header_id|>\"
|
||
PARAMETER stop \"<|eot_id|>\"
|
||
PARAMETER stop \"USER:\"
|
||
PARAMETER stop \"ASSISTANT:\"
|
||
PARAMETER temperature 1.0
|
||
PARAMETER num_ctx 4096
|
||
PARAMETER seed 1234
|
||
PARAMETER num_predict 100" > Modelfile
|
||
|
||
# 创建模型
|
||
ollama create $model_name -f ./Modelfile
|
||
|
||
# 清理临时文件
|
||
rm Modelfile
|
||
|
||
echo "$model_name 创建完成"
|
||
end
|
||
|
||
# 创建Llama 3.2的1b和3b模型
|
||
for size in 1b 3b
|
||
create_llama32_model $size
|
||
end
|
||
|
||
# 创建Llama 3.1的8b模型
|
||
create_llama31_model 8b
|
||
|
||
echo "完成! 所有纯文本llama模型已创建"
|
||
echo "使用方法: "
|
||
echo "- ollama run llama3.2:1b-pure \"你的提示\""
|
||
echo "- ollama run llama3.2:3b-pure \"你的提示\""
|
||
echo "- ollama run llama3.1:8b-pure \"你的提示\"" |