GPT-2 基于 transformer 的大型语言模型

授权协议:MIT操作系统:跨平台 开发语言:Python 查看源码 »
GPT-2 是一种基于 transformer 的大型语言模型,具有 15 亿个参数,在 800 万网页数据集上进行训练。 它是论文《语言模型是无人监督的多任务学习者》(Language Mod...