Redian新闻
>
招聘 | 百度大搜-GNN/Transformer/图网络+问答+搜索-实习生/社招-北京

招聘 | 百度大搜-GNN/Transformer/图网络+问答+搜索-实习生/社招-北京

公众号新闻

求职/进NLP群—>加入NLP交流群(备注:求职)
我们组正在努力的方向包括但不限于:
精准问答,内容聚合,视频问答,结构化问答…

我们希望在日常搜索需求上返回最精确的信息快速解决问题,节约用户时间;在专业化搜索上提供全面而广泛的知识,为用户决策行为提供足量信息。

关于下一代只能搜索引擎的形态是一个开放的问题,欢迎志同道合的朋友过来一同努力!

岗位:

实习生/社会招聘(北京)

职责要求:

1. 熟悉机器学习算法并有应用模型解决实际问题的经验;

2. 熟悉监督学习、半监督学习或强化学习方法,熟悉RNN/GNN/Transformer/图网络等深度神经网络结构和主流算法,掌握至少一种深度学习框架(PyTorch/TensorFlow/PaddlePaddle等);

3. 具备较好编程能力,熟练掌握Python/C++;

4. 较好的沟通表达能力和团队合作意识;

5. 有对应领域顶会论文、相关经验者优先。

工作内容:

1. 优化百度搜索top1结果的效果;

2. 负责搜索智能摘要技术研发;

3. 语义理解、问答系统、意图分析、用户行为建模等;

4. 将海量数据、领域知识,应用到问答过程;

5. 负责算法在网页搜索等场景的应用。

投递邮箱:

[email protected]


求职/进NLP群—>加入NLP交流群(备注:求职)


知识星球:NLP学术交流与求职群

持续发布自然语言处理NLP每日优质论文解读、相关一手资料、AI算法岗位等最新信息。
加入星球,你将获得:
1. 最新最优质的的论文速读。用几秒钟就可掌握论文大致内容,包含论文一句话总结、大致内容、研究方向以及pdf下载等。
2. 最新入门和进阶学习资料。包含机器学习、深度学习、NLP等领域。
3. 具体细分NLP方向包括不限于:情感分析、关系抽取、知识图谱、句法分析、语义分析、机器翻译、人机对话、文本生成、命名实体识别、指代消解、大语言模型、零样本学习、小样本学习、代码生成、多模态、知识蒸馏、模型压缩、AIGC、PyTorch、TensorFlow等细方向。
4. NLP、搜广推、CV等AI岗位招聘信息。可安排模拟面试。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
10行代码搞定图Transformer,图神经网络框架DGL迎来1.0版本ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架Transformer在顶会上杀疯了!ICLR 2023 | PatchTST: 基于Transformer的长时间序列预测最大的ViT来了!谷歌提出ViT-22B:视觉Transformer扩展到220亿参数清北联合出品!一篇Survey整明白「Transformer+强化学习」的来龙去脉美国档案---谭锦盛把Transformer当通用计算机用,还能执行in-context learning算法,这项研究脑洞大开NeurIPS22丨大图上线性复杂度的节点级 TransformerTransformer:一种图灵完备的神经网络ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器池塘一夜秋风冷,吹散芰荷红玉影了解 Transformers 是如何“思考”的ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络强化学习中的Transformer发展到哪一步了?清北联合发布TransformRL综述2023,还能靠Transformer轻松发论文么?一文浅谈Graph Transformer领域近期研究进展爱德华王子岛骑行——第三天 没有山的山村 Mount StewartICLR 2023 | DIFFormer: 扩散过程启发的Transformer清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型Transformer模仿大脑,在预测大脑成像上超越42个模型,还能够模拟感官与大脑之间的传输CVPR 2023 | 结合Transformer和CNN的多任务多模态图像融合方法Transformer升级之路:长度外推性与位置鲁棒性Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍Seq2Seq、SeqGAN、Transformer…你都掌握了吗?一文总结文本生成必备经典模型(一)脑洞大开!把Transformer当通用计算机用,还能执行in-context learning算法在那遥远的地方了解Transformers是如何“思考”的惠勒延迟实验的另一种解释,向道还兄和小谢请教清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型!文图互生、改写全拿下!为内存塞不下Transformer犯愁?OpenAI应用AI研究负责人写了份指南EeSen、FSMN、CLDNN、BERT、Transformer-XL…你都掌握了吗?一文总结语音识别必备经典模型(二)视觉Transformer继续屠榜顶会顶刊!DeepMind“反向”搭建Transformer方法火了:由可解释程序设计AI,项目已开源学完这个教程,小白也能构建Transformer模型,DeepMind科学家推荐
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。