EVA
EVA 是一个28亿参数的中文预训练对话模型,基于encoder-decoder架构。
EVA在很多对话任务上表现优异,尤其是在多轮人机交互对话任务上。
GitHub
使用协议
核心技术
超大规模
28亿参数超大规模中文对话模型
高质量语料
使用严格规则
构建181GB高质量对话语料WDC-Dialogue
高效训练
训练时基于mask机制进行数据采样与拼接
提升训练效率
模型性能
在零样本对话任务中表现优异
零样本对话任务
应用场景
开放域对话
实例
智能对话