首先感谢大佬的开发! 主要就是在想 Copilot 感觉还是有点笨笨的,现在 LLM 发展迅速,有没有可能使用本地模型来完成上下文补全?这样的话似乎也不用费心去调用 Copilot 了,本地的话,7B 的小模型速度应该也足够?
首先感谢大佬的开发!
主要就是在想 Copilot 感觉还是有点笨笨的,现在 LLM 发展迅速,有没有可能使用本地模型来完成上下文补全?这样的话似乎也不用费心去调用 Copilot 了,本地的话,7B 的小模型速度应该也足够?