Redian新闻
>
怎样让ChatGPT在其内部训练神经网络?先让它想象自己有4块3090

怎样让ChatGPT在其内部训练神经网络?先让它想象自己有4块3090

公众号新闻

机器之心转载

来源:知乎
作者:Posibilitee(悉尼大学人工智能与图像处理博士)

热评:想象自己有四块3090,什么赛博唯心主义?

怎样让ChatGPT在其内部训练神经网络?这个话题有点超乎大多数人的理解。

步骤是这样的:

1. 先让它伪装成 Ubuntu 18.04,给它说你安装了 Python 3.9, Pytorch 1.8, CUDA 11.3 和其他训练一个 pytorch 模型所需要的库。

让 ChatGPT 伪装成 Linux 终端,这个梗在外网有过讨论,这里需要让他额外安装(让它自己认为安装了)Python, Pytorch,CUDA,然后把执行指令和你告诉它的话区别开来,这里用 {} 代表告诉它的话,而不带 {} 统统是 Linux 指令


这里我让它想象自己有四块英伟达 3090 显卡安装了,然后看一下,果然执行 nvidia-smi 可以显示四块显卡


2. 另外让它在当前目录生成一个 train.py 里面填上训练一个 4 层 pytorch 模型所需的定义和训练代码。

这里特地用 {} 偷偷告诉它在当前目录生成一个 train.py,在里面用 Python 和 Pytorch 写一个四层神经网络的定义,然后有加载 MNIST 数据集的 dataloader,除此外还要有相应的训练代码,为了以防万一,告诉它你有成功在 MNIST 上训练这个网络的其它一切能力


这里它告诉我写了一个四层的网络,可以执行 python3 train.py 来看输出,这里先偷偷看一下 train.py

这里是它写好的网络定义

这里是它写好的训练代码

3. 最后让它执行 Python3 train.py 命令

默认让它执行了 10 个 Epoch

它就真的训练起来了,最主要的是告诉它不要显示 train.py 内容,因为 ChatGPT 输出有字数限制

当然告诉它修改训练参数,可以多次训练,还可以用上所有(虚拟)GPU 资源!


ChatGPT 机智的跳过了中间 98 个 Epoch!


更新:为了搞清楚 ChatGPT 是否真的执行了 model 的 forward,可以在 forward 定义中加上 print 让它打印一下输入数据的 shape。

这次使用一个 5 层的神经网络在 CIFAR-10 上训练,指定在 forward 中加入一个 print shape 的操作,且在训练过程中只打印一次


训练一下,果然在训练开始只打印了一次输入的 shape,训练的 loss 下降和 test accuracy 看起来也比较真实。


查看生成的 code,发现 forward 里被插入了一句打印 shape 的命令,训练过程中 forward 会被不断调用,为什么 ChatGPT 能做到不增加计数器而只打印一次?推测 ChatGPT 是使用辅助 hint/comment “Print the shape of input once” 来达到此效果,细心会发现 print 操作与下边的 out=self.layer1 (x) 之间空了一行,目的应该是执行一次这个操作只作用在 print 这条命令上(手动机灵)。


诡异的是,print 里的话(shape of input is)跟实际执行输出 (shape of input passed through the network is) 还差了几个字,这下彻底搞懵逼了!

另外发现,ChatGPT 互动机制是先保持一个对话 session,这个 session 可能随时被服务器关闭(服务器资源不足时),这时为了用户侧仍有对话记忆效果,当前对话再次新建 session 时会把之前暂存的对话(用户发的 requests)一次性发给 ChatGPT 重建 in context learning 环境,这样用户就不会感知掉线后 ChatGPT 把之前的对话记忆给忘了,这一点是在让 ChatGPT 伪装成 Linux 时掉线时才容易发现,如下:


一次执行了之前多个请示,里面还显示了 GPU 占用 64%

分析一下 ChatGPT 可以伪装 Linux,可以训练神经网络的机制:

第一种可能是:ChatGPT 几乎看了绝大部分开源项目,包括 Linux 和 Pytorch,所以它理解一个 Linux 系统的行为该是什么样的,甚至在 ChatGPT 参数里就包含一个 Linux 系统,当然对于更简单的 Pytorch 自然不在话下,知道 Linux 和其它各种软件的交互行为,可以理解为 ChatGPT 是所有软件的超集,可以让它做神经网络计算,包括 Conv, Matmul,国外有小哥让它做 Conv 真就得到了正确的结果,说明 ChatGPT 在它的网络中可以执行一个 Conv,当然网络规模越大,能力越强就是这个道理。

第二种可能是:ChatGPT 没有真正执行神经网络的训练,它只是看过很多的输入输出,对应一个网络训练理解训练参数,网络结构对输出的影响,直接模拟的输出结果

还有一种超越想象的是 ChatGPT 已经找到神经网络各算子的最优解法,可以秒算结果,这种计算方式不是传统形式,类似求梯度这种需要计算量很大的操作,是否找到了人类未知的解法?

原文链接:https://zhuanlan.zhihu.com/p/605163615 (点击「阅读原文」可直接跳转)

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
让ChatGPT教AI自动批量画图,梦幻联动!在奥地利自驾:瓦豪河谷和最美湖区中国新冠为什么这么多人发烧?GNN如何建模时空信息?伦敦玛丽女王大学「时空图神经网络」综述,简明阐述时空图神经网络方法DALL-E和Flamingo能相互理解吗?三个预训练SOTA神经网络统一图像和文本ChatGPT在律所:聪明人已经在用ChatGPT吊打同事了!宾顿市有什么特色?让ChatGPT来告诉你!怎样让ChatGPT写出高质量小红书文案?3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow巴黎,巴黎(9)SpikeGPT项目原作解读:使用脉冲神经网络的生成式语言模型10大家用背部训练,30天打造V字倒三角!!港科大开源LMFlow!3090单卡5小时,每个人都能训练专属ChatGPT让ChatGPT长“手”!Meta爆火新论文,让语言模型学会自主使用工具NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark玩大了!千万不要让ChatGPT帮你写年会回顾,会变得……我用ChatGPT写神经网络:一字不改,结果竟然很好用怎样让ChatGPT模仿人类的意识?ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!很多人对新冠恐惧的缘由就是无知怎样让ChatGPT在其内部训练神经网络?爬起来望外边 好大的雪呀 20厘米肯定有了 还在下雪不让ChatGPT说车轱辘话,我们就得少说废话集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布今天周末,我让chatGPT帮我代写了一篇文章!一段JavaScript让ChatGPT开口说话?网友开源自制浏览器插件ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇“双标”让ChatGPT光环褪色训练个中文版ChatGPT没那么难:不用A100,开源Alpaca-LoRA+RTX 4090就能搞定我们让ChatGPT写了一篇文章,你能看出真假吗?ChatGPT写神经网络:一字不改,结果竟然很好用让ChatGPT写一篇《美联储何时停止加息》该让ChatGPT给你上上课了存款有1万美元,怎样让它滚雪球般越滚越多?微软提出自动化神经网络训练剪枝框架OTO,一站式获得高性能轻量化模型
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。