vllm 大模型量化微调推理使用: lora、gptq、awq

作者 : admin 本文共161个字,预计阅读时间需要1分钟 发布时间: 2024-06-10 共3人阅读

大模型微调、强化训练可以参考:

LLaMA-Factory
https://blog.csdn.net/weixin_42357472/article/details/139408979

1)微调lora模型推理

docker run  --gpus all  -v /ai/Qwen1.5-7B-Chat:/qwen-7b -v /ai/lora
本站无任何商业行为
个人在线分享 » vllm 大模型量化微调推理使用: lora、gptq、awq
E-->