Anthropic 公司最近开源了参数量少于 10 亿的语言模型 Persimmon-8B。该模型采用 Apache 许可证发布,具有 16K 的上下文长度,超过了 LLaMA2 和 GPT-3。同时,提供了高效的推理代码,可以在 A100GPU 上进行快速生成。Anthropic 希望社区能够在该模型基础上进行更多创新应用。