GitHub Copilot 利用各种大型语言模型 (LLM) 实现不同目的。GitHub Copilot 最初使用的是 Codex,这是 OpenAI 的 GPT-3 的早期迭代,专门针对编码任务进行了微调。2023 年,随着 GitHub Copilot Chat 的推出,它采用了 OpenAI 的 GPT-3.5,随后又采用了 GPT-4。随着 OpenAI 推出更新的模型,GitHub Copilot 的基本模型也随之更新,根据延迟和质量要求,从 GPT-3.5-turbo 过渡到 GPT-4o 和 4o-mini 模型。
今天,在 GitHub Universe 大会上,GitHub 团队 宣布 将 Anthropic 的 Claude 3.5 Sonnet、Google 的 Gemini 1.5 Pro 以及 OpenAI 的 o1-preview 和 o1-mini 整合到 GitHub Copilot 中。这标志着 GitHub Copilot 首次为开发者提供了选择其偏好机型的机会。
这些来自 Google、Anthropic 和 OpenAI 的新模型将首先在 Copilot Chat 中推出。新的 OpenAI o1-preview 和 o1-mini 模型已经可用。Claude 3.5 Sonnet 将在下周逐步推出,谷歌的 Gemini 1.5 Pro 也将在未来几周内推出。这些模型还将集成到 Copilot Workspace 和 GitHub 的其他相关功能中。
GitHub 首席执行官托马斯-多姆克(Thomas Dohmke)就 GitHub Copilot 中的多模型支持发表了如下声明:
在过去的一年中,我们见证了高质量小型和大型语言模型的激增,这些模型各自擅长不同的编程任务。显然,下一阶段的人工智能代码生成将不仅取决于多模型功能,还取决于多模型选择。GitHub 致力于打造一个开放的开发者平台,确保每个开发者都能使用最适合自己需求的模型进行开发。今天,在 GitHub Universe,我们做到了这一点。
这种多模型的 GitHub Copilot 体验现在可以通过 github.com 上的 GitHub Copilot Chat、Visual Studio Code 以及 Visual Studio 的 Copilot 扩展进行访问。组织和企业可以完全控制为开发人员启用的模型。