开源大模型代码

Language ModelRelease DateCheckpointsPaper/BlogParams (B)Context LengthLicenceTry it
SantaCoder2023/01santacoderSantaCoder: don’t reach for the stars!1.12048OpenRAIL-M v1SantaCoder
StarCoder2023/05starcoderStarCoder: A State-of-the-Art LLM for Code, StarCoder: May the source be with you!1.1-158192OpenRAIL-M v1
StarChat Alpha2023/05starchat-alphaCreating a Coding Assistant with StarCoder168192OpenRAIL-M v1
Replit Code2023/05replit-code-v1-3bTraining a SOTA Code LLM in 1 week and Quantifying the Vibes — with Reza Shabani of Replit2.7infinity? (ALiBi)CC BY-SA-4.0Replit-Code-v1-3B
CodeGen22023/04codegen2 1B-16BCodeGen2: Lessons for Training LLMs on Programming and Natural Languages1 – 162048Apache 2.0
CodeT5+2023/05CodeT5+CodeT5+: Open Code Large Language Models for Code Understanding and Generation0.22 – 16512BSD-3-ClauseCodet5+-6B
XGen-7B2023/06XGen-7B-8K-BaseLong Sequence Modeling with XGen: A 7B LLM Trained on 8K Input Sequence Length78192Apache 2.0
CodeGen2.52023/07CodeGen2.5-7B-multiCodeGen2.5: Small, but mighty72048Apache 2.0
DeciCoder-1B2023/08DeciCoder-1BIntroducing DeciCoder: The New Gold Standard in Efficient and Accurate Code Generation1.12048Apache 2.0DeciCoder Demo
Code Llama2023Inference Code for CodeLlama modelsCode Llama: Open Foundation Models for Code7 – 344096Custom Free if you have under 700M users and you cannot use LLaMA outputs to train other LLMs besides LLaMA and its derivativesHuggingChat

Licences 是什么意思?

  • Apache 2.0: 允许用户为任何目的使用软件,发布、修改软件,并根据许可证的条款发布修改后的软件版本,而无需考虑版税。
  • MIT: 类似于Apache 2.0,但更短更简单。此外,与Apache 2.0相比,不需要声明对原始代码的任何重大更改。
  • CC BY-SA-4.0: 允许(i)复制和重新分发材料,以及(ii)混合、转换和构建材料
    出于任何目的,甚至是商业目的。但如果你选择了后者,你必须在与原版相同的许可下分发你的贡献。(因此,对于内部团队来说可能是不可行的。)
  • OpenRAIL-M v1: 允许免费访问和灵活的下游使用和共享模型及其修改,并附带一组使用限制(见附件a)
  • BSD-3-Clause: 此版本允许为任何目的无限制地重新发布,只要其版权声明和许可证的免责声明保持不变。

⚠️ 免责声明: 本页面中提供的信息不构成,也不打算构成法律意见。本站对使用该模型的第三方的行为不负责。为商业目的使用模型前请咨询律师。

赞赏

微信赞赏支付宝赞赏