腾讯微信,今年取消了24届秋招。。。
大家好,我是 Jack。
今天继续聊聊互联网上发生的那些事吧。
又是聊技术、聊“八卦”的一天~
一、微信取消了24届秋招
最近,各个公司都开启了秋招,很明显感受到了 24 届同学们的竞争压力。
毕竟“好坑”,就那么多。
7 月 13 日,腾讯招聘官微宣布:腾讯微信团队全实习,不秋招!也就是说,24 届正式批的秋招,取消了!
想要进腾讯的微信事业部,不能直接投递简历参加正式批,需要先参加实习:
微信官方给出的解释是:“这样变化的初衷是希望同学们通过至少 2 个月的实习和团队更加深入的了解,通过实习考核后再正式入职。”
24 届的秋招,挺难啊!
二、实锤 GPT-4 真变笨了
近日,有人发论文实锤 GPT-4 变笨了。
论文链接:
https://arxiv.org/pdf/2307.09009.pdf
这是一篇来自斯坦福、UC Berkeley 的一篇 arXiv 论文。
研究者们通过对比研究 GPT-3.5 和 GPT-4 的 2023 年 3 月的版本和 6 月的版本发现。
在四个任务上,这些大语言模型,随着时间的推移,数据指标越变越差。
特别是解数学问题的能力,用雪崩形容一点都不过分。
从 3 月份的 97.6% 准确率,降到了 6 月份只有 2.4% 的准确率。
可能是更新进去的数据越来越多,被 pua(prompt)久了,它也 emo 了?
三、Transformer 取代者?
大语言模型的成功,某种程度上要归功于 Transformer 架构在自然语言处理任务上的突破。
Transformer 让训练并行,但也有代价,那就是低效,每一步的复杂度为 O(N) ,耗显存、也耗内存。
这也是小公司,玩不起大语言模型的原因。毕竟从头训练一个大语言模型,首先要有上百张 A100 显卡。
为了解决这个问题,微软研究院和清华大学的研究者取得了突破。
推理复杂度直接降为了 O(1)。
论文链接:
https://arxiv.org/pdf/2307.08621.pdf
在这项工作中,研究者提出了 RetNet 网络,实现了低成本推理,性能媲美 Transformer,打破了「不可能三角」。
RetNet 的推理成本与长度无关。对于 7B 模型和 8k 序列长度,RetNet 的解码速度是带键值缓存的 Transformers 的 8.4 倍,内存节省 70%。
在训练过程中,RetNet 也能够比标准 Transformer 节省 25-50% 的内存,实现 7 倍的加速。
该项技术,能够产生多少更厉害的大语言模型,拭目以待吧。
四、三大运营商暂停办理eSIM业务
eSIM,全称为 Embedded-SIM,就是将 SIM 卡直接嵌入到设备芯片上,实现真正设备无卡化。
像 Apple Watch 蜂窝移动版,就是使用了 eSIM 一号双终端的服务,可以实现手机与智能手表等穿戴设备的绑定,共享一个号码、话费及流量套餐。
这样在一些手机不在身边的场景,也能通过手表与人通信。
就在最近,移动、联通、电信纷纷叫停了这项业务的办理。
已经有 eSIM 业务的用户,可以继续使用,但没有这个业务的用户,已经无法办理。
据网友推测,运营了多年的 eSIM 一号双终端被叫停,可能跟该业务存在的 bug 有关。
比如可以将 eSIM 芯片拆出来焊接到专门的卡板上,还原为实体 SIM 卡。
而 eSIM 没有实名认证,该漏洞可能被用于电信诈骗。
同时,该业务似乎被不法分子滥用将 eSIM 分成多个实体卡,并且每个实体卡,都能超额使用流量,从而导致运营商损失惨重。
至于业务恢复时间,应该要等到 bug 修复之后了。
五、最后
话说,大家喜欢这样的“大杂烩”文章吗?还是喜欢看硬核一些的纯技术文?
好了,今天就聊这么多吧,我是 Jack,我们下期见!
微信扫码关注该文公众号作者