Deepseek本地版部署教程来了,针对使用ollama本地部署

Deepseek本地版部署教程来了,除了本地部署,本篇还是主要针对使用ollama本地部署的时候,后台跑的cpu算力而不是gpu算力的解法,通过使用CUDA和环境配置切到显卡跑模型让整体输出更快速更流畅。

本周基本在忙企业内的大模型本地化部署项目以及需求落地,写实操帖少了一点,这篇比较细分,有个人本地部署需求的基本上是资深lsp,毕竟不可描述人之常情,测试了,nsfw关键词可以触发,无内容审核,对话限制比api接口低

具体指路飞书:https://tue99hylfd.feishu.cn/docx/ElgYdULtooxDeYxn… https://tue99hylfd.feishu.cn/docx/ElgYdULtooxDeYxn…

请登录后发表评论

    没有回复内容