拿下SOTA!最强中文Embedding模型对标OpenAI,技术路线公开
新智元报道
新智元报道
【新智元导读】国产大模型「日日新 5.0」已经在权威主流评测中鲨疯了。变强的背后原因竟是,来自商汤自研中文Embedding模型——Piccolo2。这是首个对标OpenAI向量长度的模型。
论文地址:https://arxiv.org/abs/2405.06932
模型幻觉「退退退」,长文本「准准准」!商汤全新嵌入模型性能大幅提升
核心技术详解:对标OpenAI向量长度,精度位列MTEB中文榜单榜首
多任务混合损失训练:适用不同下游任务
大维度和MRL训练
高质量数据加持精度
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章