这是构建 GitHub Copilot 本地托管版本的尝试。它在NVIDIA的Triton Inference Server中使用SalesForce CodeGen模型和FasterTransformer后端。
你将需要:
docker compose>= 1.28
nvidia-docker
curl以及下载和解压缩模型。
zstd
请注意,列出的VRAM要求是总数 - 如果你有多个GPU,则可以在它们之间拆分模型。因此,如果你有两个 NVIDIA RTX 3080 GPU,你应该能够通过在每个 GPU 上放置一半来运行 6B 型号。
setup.sh
淳淑娴
好的,好的,我们现在在wiki上有一些最少的信息和一个讨论论坛,你可以在其中提问。仍然没有正式的支持或保修!
本节介绍如何安装 Fauxpilot 服务器和客户端。
运行安装脚本以选择要使用的模型。这将从Huggingface/Moyix下载GPT-J格式的模型,然后将其转换为与FasterTransformer一起使用。
请参考如何设置假领航服务器。
我们提供了一些连接到仿领航服务器的方法。例如,你可以通过如何打开Openai API,Copilot Plugin,REST API来创建客户端。
请参阅如何设置客户端。