Redian新闻
>
ChatGPT是新世界的诞生,还是人类末日的开始

ChatGPT是新世界的诞生,还是人类末日的开始

公众号新闻

许纪霖、姜宇辉、金雯、张笑宇


编者按


ChatGPT席卷全球,成为当下最红的热门话题。继元宇宙之后,一个人工智能的革命性突破来临了吗?它对未来的人类、生存方式和日常生活将发生什么样的转折性影响?


2023年2月16日,华东师范大学历史学教授、中国现代思想文化研究所副所长许纪霖邀请华东师范大学政治与国家关系学院教授姜宇辉、华东师范大学中文系与国家汉语文化学院双聘教授金雯、华东师范大学世界政治研究中心特聘研究员张笑宇从科技、人性、伦理多种视角,碰撞思想的火花,展望人类面临的新的生活处境和心灵世界。


许纪霖:今天这场对话是从科技、人性和伦理的多重视角来讨论ChatGPT与人工智能。最近半个月网上已经有很多专家从技术的角度谈论ChatGPT,但我觉得ChatGPT的产生不仅是一个技术现象,也是一个文化现象,它甚至和社会经济和政治都息息相关,所以或许我们应该从一个更广泛的视角来思考这场人工智能的革命性突破将会给人类,以及个人带来怎样的变化。我想先请笑宇来介绍一下这块的技术。


张笑宇:目前Open AI推出了包括ChatGPT在内的一系列同类产品,部分产品在某些特定方面的表现甚至要优于ChatGPT。我想通过ChatGPT,来聊聊最近出现的AI技术有着怎样的进步意义,它可能会扮演哪些角色。


也许很多人还记得当年AlphaGo先后战胜了世界顶级的围棋选手,当时的AlphaGo已经不像以前的程序,只能根据人类规定的算法执行出结果。它能够在完全了解围棋的基本规则之后,进行自我的学习与进化。而现在的人工智能的深度学习(deep learning)一般以图像识别为基础,以此来完成各种任务。它不光能识别学习,还能够生成新的内容,因此我们可以将它理解成是有创造能力的。


相较于过去的“聊天机器人”,ChatGPT的对话能力有了质的飞跃。虽然它的核心算法还没有公布,但我们可以从几个侧面去理解它。比如它的名字GPT中G(Generative)是生成、P(Pre-trained)是预先训练。实际上,ChatGPT不是实时联网进行回答,它有一个巨大的训练模型,基于这个模型再联网进行尝试。最后T(Transformer)是转换器,通过多层的转换,来生成接近人类的语言。


它早期版本的算法大概原理是:先有一个字母,通过向量图来猜测下一个字母跟它匹配的概率,之后组成一个单词,并猜测下一个单词跟它的匹配概率,最后组成一句话。通过分析这个能力,我们可以知道ChatGPT并不是真的学会了人类的语言方式,而是在尽可能地去模仿。虽然它的说话方式像人类,但并不具备人类的思维方式。


许纪霖:谢谢笑宇的介绍,接下来,我们先从感性入手,谈谈我们作为用户的体验究竟是怎么样的。


金雯:之前笑宇老师说了一个很重要的点。ChatGPT好像会说人类的语言,但它的思维方式和人类完全不同。那么,如果人和ChatGPT的思维方式完全不同,两者还有没有可能在同一个频道上对话?


自然语言是一种人与人之间通过长期交流后形成的,约定俗成的符号系统,它具有一定的任意性。即使是人在说话的时候,我们想要表达的感受或观念也无法做到与语言无缝连接。人类在说话的时候,也不是自然而然、脱口而出的,它同样经过了内在的转译和翻译。事实上,人常常感到语言的无力,无法表达内心感受或所思所感。举例而言,在大部分的语言中关于疼痛的直接表达是非常稀少的,无非是疼痛、剧痛,或微痛,但这些表达无法涵盖每个个体感受到的疼痛。


如果扩展到所有情感,人类的语言更是千变万化。人类为了表达一种个性化的感受,往往会使用一种隐喻的、迂回的方式。因此,有创造力的人类语言使用者,一定会想到一个非常有趣和独特的方式来表达某种情感。


对此,我测试了ChatGPT是否能理解隐喻。我用的例子是美国歌手莱昂纳德·科恩(Leonard Cohen)在歌曲中的隐喻,科恩说:每个人好像都有罪的,走完了一生还没有摆脱负罪感;即使摆脱了,也依旧是一个有缺憾的人。但他没有直接这么表达,而是用了一个隐喻,科恩说蛇也会为它的罪恶而感到彷徨不安,所以蛇会蜕皮,似乎这样能褪去自己的罪恶。但在蜕皮后,蛇仍然非常脆弱,而且它的毒液已经流遍了全身。也就是说,即使你摆脱了上帝,摆脱了这种罪恶感,你仍然是一个有缺憾的人,你的人生仍然是非常痛苦的。


那么,ChatGPT是如何理解这个隐喻的呢?它说蛇并不是为了自己的罪恶而蜕皮,这是因为蛇需要进行一个重大的生命转变,这种转变可以让它变得更加强大和坚韧。虽然它的重生可能并不开心,但蛇也会从中学习,变得更加坚强。


从这里可以看出ChatGPT的有几个特征。第一,它不太了解人类文化里面典故的语言,它不知道蛇在《圣经》里有怎样的隐喻,蛇跟原罪、跟伊甸园之间的紧密关联。因此,它只能就事论事来做一个阐述。第二,我发现ChatGPT的设定很讲究“正能量”,如果你和它分享一个悲观的观点,它一定会从正面的角度去理解,给你加油鼓劲。所以它首先反驳了蛇的罪恶感,然后强调了蛇的蜕皮会让它变得更好。第三,是ChatGPT无法从隐喻的角度理解这句话,不知道它在以蛇喻人。一来是ChatGPT没有人类的这种困境,二来机器没有经验、没有身体、没有社会交往,所以它也很难理解隐喻的概念,不理解人类借此言彼的行为。


在我看来,每个人在使用日常语言的同时,也时刻在使用着创造力。因为自然语言是如此“标准”,如果没有创造力,人类是没有办法表达自身的。因此,自然语言使用所需要的创造力比我们想象更多,而ChatGPT目前仍然表现得像一个没有领悟力的、乏味的对话者。至于它将来能不能够成为一个有趣的对话者,我对此持高度怀疑,这或许是大型语言模型非常难以逾越的障碍。


伊甸园


许纪霖:我这两天也和ChatGPT交流了很多,我的感受是:ChatGPT有着一流的逻辑,二流的知识,三流的文字。一流的逻辑,是因为它算法太厉害了,整个对话非常流畅,它能理解你的语言和语境。虽然它的回答有时候会出错,但即便如此,它的逻辑依旧是清晰的。二流的知识,是因为它的英语资料数据库非常强大,可以说是有问必答;但和中国相关的知识却比较欠缺,抓取的数据有时让人啼笑皆非。三流的文字,是因为它的回答都是缺乏个性的。它就像一个合格的学术助手,文字非常规范,彬彬有礼,但是没有个性,缺乏文采。


姜宇辉:在目前这个阶段,我还没有感觉到ChatGPT对我有巨大帮助,但相较于元宇宙的巨大泡沫,我对ChatGPT的判断非常积极。我认为它对人类知识的发展、写作的发展、思考的发展,将会带来巨大的推动或贡献。


许多人都担心人工智能发展的速度太快,担心人类会沦为技术的奴隶。但在我看来,ChatGPT并不像一个敌人,而是一个助手,帮助我在学习、写论文、做研究的过程中完成重复性的工作和低端思考:包括搜索和分类资料、阅读并概括文献等等。在它的帮助下,人类能有更大的空间去发挥人类的思考或者知识的创造性。


当然,许多朋友不太认同这个观点,他们觉得个人如果没有完成重复性工作的经历,例如学习语言和知识,就不可能拥有知识的成长。但在人工智能的时代,其实个人不需要花许多时间去从事那些重复的劳作。而是应该关注更有创造力的工作。我之前看到过一个说法:ChatGPT将彻底改变中国,乃至整个人类的教育模式。尽管许多人认为国外的教育是启发式的,中国是灌输式的,但其实国外的教育体制中依旧有许多机械性、重复性的学习,而ChatGPT恰恰能分担这些知识和语言的劳动,让教育承担更多启蒙的作用,激发人们的思维创造性和潜能。当然,ChatGPT也有发生异化的可能,如果它的语言能力和知识能力远远超越人类的学习速度,那么它会不会反过来对人类会实施一种规训或操控?会不会让人类在技术的领域里丧失自己的自由?


另一方面,人工智能也能对人类的情感进行非常细致的分析甚至设计。我研究电子游戏比较多,在电子游戏里面有一个专门的词叫“情感工程”。一个游戏之所以那么好玩,正是因为它能在游戏内精准地去操控人类的情感细节,把控玩家的情感走向。总而言之,我依旧期待ChatGPT和人类之间的合作,去激发双方的潜能。


许纪霖:宇辉提出的角度很有意思。我曾问过ChatGPT:“你能不能像人类一样地思考?”它表示自己不可能像人类一样有自主意识和主观体验,也不可能像人类一样有创造性和判断力,不能做出道德判断。它表示尽管自己在某些方面表现出色,但它无法完全替代人类的思考,只能辅助人类完成一些任务。


那么,如果人工智能再进化,它有没有可能获得一种智慧?一些理论认为,智慧是通过经验获得的,这种经验不仅是人的理性,也包括人的情感和意志。按照西方著名哲学家迈克尔·波兰尼(Michael Polanyi)的说法:所谓模糊性知识是不可言说的,只能通过自己的实践去体验,比如去学习驾驶或游泳等等,而缺少身体的人工智能似乎无法获得这种体验,人工智能似乎也无法像人类那样获得智慧。


张笑宇:如果从这个角度出发,我们就问错了问题。人工智能不需要像人类那样,去获得模糊性的智慧。模糊性的智慧恰恰是人类感官和思考能力的局限,我们为了把握某种东西,不得不去进行所谓的玄学、冥想。但如果人工智能够在其他学科的支持下,用暴力的数据手段得到直接的观察、分析和解释,它就不必追求模糊性的知识。所以我认为人工智能没有必要通过人类的道路来获得智慧。


此外,如果我们事先对人工智能进行教育,它或许能理解隐喻。它可能不理解你在聊什么,但它可以模仿你的语言。如果我们事先教过它某个隐喻是什么意思,它就可以在对话中自然运用这种隐喻。其实从这个角度讲,文学和思想史上使用过的隐喻也不过是对首创者的模仿。从这个角度否定人工智能可以像人类那样拥有智慧其实不妥。我们可以由此提出一个思想实验,笛卡尔曾提出过“无所不能的恶魔”的概念:如果有一个无所不能的恶魔,它能控制你的一切感官,操纵你对外部世界的一切认知,那么你的思想里还有什么是能够确定的呢?那么,如果人工智能可以做一个无所不能的模仿者,虽然它本身没有任何情感和智慧,也不能像人类这样去思考,但它可以模仿一个具备这些能力的人。从这个角度来看,我们凭什么说人工智能的智能比人类低级?除了人工智能没有情感,没有模糊性的智慧,并且不是人类外,我们是否还有其他的出发点和合法性,去质疑人工智能的智慧?


第二,从社会功能和政治结构的角度来讲,人工智能可以在多大程度上替代人类,不取决于算法的上限,而是人类的下限。日常生活中大量的白领工作,本身就是以简单的交互方式进行大量的重复劳动。而且很多年轻人在刚毕业踏入社会时,从事的就是这类基础性重复劳动。比如助教、助理律师、助理文案。他们必须经过长期的锻炼,才能成为高级人才。但现在他们的工作很容易被算法取代。由此带来的问题是,如果人工智能可以替代大量的基础工作,会不会导致巨大的社会不公?这些技术进步和社会结构不公造成的内卷,会不会在未来导致代际不公的问题?


许纪霖:我对此有不同观点。之前华东师范大学的会议上,有一位人工智能的专家表示,他们在研发过程中发现人工智能非常熟悉理性知识,人工智能难以掌握的,反而是那些类似小孩子的知识技能。因为小孩子的一些判断并不是基于理性,而是一种孩童式的直觉和悟性,而人工智能恰恰缺乏这些。笑宇刚刚的观点其实涉及到我们对人的预设:将人理解为是一个理性人,但人类除了理性之外,还具有悟性和直觉。悟性和直觉是创造力的根本。从这点来说,人究竟是什么?现在随着科技的进步,往往把人还原为一个理性人,但这恰恰是对人性非常浅薄的解读。休谟有一句名言:理性只是情感的奴隶,这正是为了破除现代启蒙给人带来的迷思。这就涉及到Open AI设置的人工智能的局限,包括不为它添加情感。这其中也有伦理道德的考虑,如果ChatGPT有自身意志,还有丰富的情感,那么,AI真的将会变成一种自然人很难控制的新人类了。


金雯:我想接着许老师的观点继续,ChatGPT能很好地完成辅助工作,它不一定会大量削减人类的岗位,它甚至可以为许多工作者提供重要的辅助。这点我是完全赞同的,但我有两点反对意见。首先,笑宇可能觉得人类中有少数的天才,他们是人类超越自身的希望,但大多数人类的下限实在太低,所以对人类充满了失望和悲观的情绪,也因此寄希望于某种新的智能。


笑宇之前说悟性、模糊性都是基于人的局限性。但人类之所以能有我们引以为豪的情感,恰恰是因为人有物质性的身体。情感就是物质性身体在与外界的接触中做出一种回应。如果我们没有身体,就不会做出回应,无法被任何的变化所触动,我们的情感也不会存在。


那么有情感究竟是不是一件好事?如果从一个非常负面的角度来看,人类的一些特质根本不值得我们为之骄傲,但人类文明和人类社会之所以还值得我们去维护,就是因为那些最伟大的人类特质都基于人类的局限。人类的上限实际是以人类的下限为基础的。


假如人没有身体,人类的经验和语言之间没有任何鸿沟,他就没有动力去创造千变万化的语言。事实上,人类最璀璨的文明恰恰基于人类的局限性。正如博尔赫斯在《永生》这个故事中所表达的:人类的最终局限就是人类会死的事实,人类有着速朽的肉体,但这也正是他们得以伟大的根由。正因为人类有限的身体会衰朽,他们才拥有自我意识,这个自我意识带来了巨大的欣喜和狂欢,同时也带来巨大的痛苦。为了应对这种巨大的情绪起伏,人类才创造了自己的文明。


这个文明也有着致命的弱点,就是人的分化。ChatGPT,包括之前机械工具的产生都在提醒人类。人类社会有一种天然的倾向,就是让精英有更多的时间去从事所谓的高级劳动,将重复的简单劳动交给“没有天赋”的人。到了18世纪,这种倾向逐步演变成了劳动分工理论:社会的生产系统要产生巨大的效应,必须有一部分人从事简单的、急需的劳动,让另外一部分人做统筹、管理和创新的工作。ChatGPT的出现恰恰不是要推翻这种秩序,而是来加固所谓的阶层分工。ChatGPT加强了一种极其错误的思维:一部分人可以去做最复杂的工作,而另一部分人可以做最简单的工作。


这个思维之所以错误有两个原因。首先,所有最复杂的创造性工作,往往需要最简单的直觉,而这种直觉需要通过重复性劳动才能涌现。比如你从来就没有学过西班牙语,如果你一直依靠翻译软件把西班牙语翻译成英语或中文,那么你就无法理解西班牙语的诗歌,你只能够理解诗歌的大致含义,但无法理解诗歌本身。与之相似,这种人工智能的分工会抹杀人类所有的创造力。


第二,这在伦理上来说是完全不可取的。在人工智能参与劳动分工的未来,我们会被分成“奴隶”和“主人”两个阶层。但正因为主人不做简单的重复劳动,他们也创造不出任何新的东西,只能反复地去做一些套路化的重复性工作。任何“创造”,即便是人工智能制作的画面或电影,其灵感的基本内核,还是来自于人的不可取代而时刻更新的在物质性感官经验和社会生活经验,而不是来自对大众化套路的重复。


也就是说,社会在分化的过程中对每个阶层都造成了巨大的伤害,那些自以为在上层的人,他们的创造力被抹杀;在中层或下层的人,他们的智能也没法得到进一步的开拓,因为他们只能局限于做重复的工作。所以从伦理上来说,过度的劳动分工会导致阶层的巨大分化,对每个阶层产生非常悲剧化的冲击。ChatGPT的出现会加剧和固化人类的这种悲剧化倾向,不过也成为一种警示,提醒我们把人和机器分成等级将会带来怎样的危机。


举一个最简单的例子,如果我们天天跟ChatGPT聊天,就会忘记自然语言的上限。人们会逐渐丧失表达自己的能力,无法理解自身,最终不能和他人进行良性的互动。人类的友情、爱情、任何的良性关系都会因此解体,人类社会将走向物理意义上的萎缩。这才是最大的危机。


张笑宇:我想对金老师对社会结构和历史的分析提出异议。历史上所有的分层和分化,都是人类进步的一个伴生物。我们不应该否定分层结构的合理性,而是要从中区分哪些人从中获利是合理的,哪些人从中获利是不合理的。例如瓦特发明了蒸汽机,牛顿发现了物理学的规律,袁隆平发明了杂交水稻,他们理应获得回报。但在人类社会进步的过程中,有一些人上人阶层靠着暴力去抢夺,用不公正的政权去压榨很多人,使得其他人无法实现自身的潜力,这就是不合理的。


卢德运动


没有技术,人类社会结构也已经存在大量的不公,我们不需要把这些责任都归到技术上,也可以勇敢地正视和指出这些不公,造成这些不公的人才是我们要革命的对象。我们不能像工业革命时代的卢德运动一样,把怨气都指向机器,而是应当看到不公的社会现象首先是由不公的社会结构造成的。如果我们认同这种观点,我们就会发现在人类历史上,技术力量往往是帮助我们推翻不合理社会结构的同盟军,而不是敌人。我们需要意识到社会结构已经很不公了,社会上存在着太多围着领导打转的狗屁工作,而这才是导致人类越来越像机器的重要原因。我们要先去打破这些社会不公,只有这样每个人才能去成为具有原创性的个体。


姜宇辉:历史上的技术,包括ChatGPT都是双刃剑。金老师感受到它对人性之中的真善美构成了威胁;笑宇看到的则是更为解放的内容。在这个技术刚起步的阶段,我们应该努力使它向更好的方向推进,而不是上来就对它口诛笔伐。一直以来,我的立场就是:所有的科学家发明技术的初衷就是要造福人类。或许在这个阶段,人文科学学者可以和技术学者联手,防止ChatGPT向邪恶的方向发展。


另外,我并不认为只有少数人才能享受ChatGPT的益处。相反,当ChatGPT承担了人类的语言、知识、思考里那些重复的工作之后,每个人都可以激发出自身的潜能。但它的前提是社会能够为每个人提供一些机会。技术的进化需要与社会的进化相结合。技术并不能解决所有的问题,人类应该行动起来,配合技术的发展,让社会变得更平等。


在人工智能出现之后,社会确实可能变得更加平等。因为人工智能不像人类那样,存在各种歧视:种族歧视、性别歧视、地域歧视,甚至财富歧视,它不存在这些想法。从这一点来看,或许机器能更好地去制造一个平等的平台,让人在这个平台上平等发挥个体的潜能。


但是,我也看到过一个批判元宇宙的外国学者提出的一个术语,叫“鱼缸效应”。他认为所有的大众都在鱼缸里,从鱼缸往外看,我们认为自己很自由,能在水里自由自在地游动;但实际上真正站在鱼缸外,能够去立法和控制我们的是少数的技术精英。因此,很多人认为人工智能会造成人类有史以来最大的不平等,并且是一种智性的不平等。如果一个人比你聪明,他的思考能力比你强,他就能够牢牢地把大众踩在脚下。但我个人还是相信,ChatGPT可以将人类从繁重的劳动中解放出来。并且我认为,如果给每个人都提供机会,每个人都可能会成为非常高超的创造者;正是现代社会中制度化的岗位,重复化的劳动使得他们没有空间去实现自己的潜能。


最后我也想做一个展望,人类历史上那些伟大的文明成果有其不可取代的地位,但下一波的创造可能不再是由人类单纯地通过语言,通过符号,通过传统来实现。相反,下一波的创造会是人和机器共同携手,机器将会为人类提供灵感和动力。


许纪霖:宇辉的期待让我想起Open AI的联合创始人格雷格·布鲁克曼(Greg Brockman)的浪漫主义想象。他曾提出,人工智能和智能机器人会替代所有的工作,未来社会的劳动力成本将会是零。今后所有人只需要基本收入,然后就可以成为一个自由的人,这或许能打破今天资本主义的不平等现状。


但至少从目前来看,这种愿景恐怕是一个新的乌托邦。因为在人工智能的开发公司背后,支撑着他们的是互联网巨头企业。这些互联网巨头曾经历过互联网的诞生,在互联网出现时,人们也曾觉得一个真正意义上的无政府主义时代将要到来,每个人终于有了平等的表达权利。但经过互联网的多次迭代后,这个社会反而变得更加不平等了。全球的资源、财富、技术、人才,越来越向头部国家和企业集中。从现实层面来看,每一次技术的进步背后都有资本的推动,这种现象的背后就是赢者通吃。所有的资源、人才、技术都集中在那几个寡头那里。


所以未来是否会出现自由平等的乌托邦?社会是否会变得更加撕裂,甚至出现新的等级秩序?关于这些问题,其中有些部分我们可以想象,有些部分只能走着看。从这点来说,我相信晚清的章太炎先生提出的“俱分进化论”:他认为善在进步,恶也在进步,道高一尺,魔高一丈。技术上的每一次进步都会伴随另外一方面的退步。过分的乐观不可取,过分的悲观也是多余的,因为历史上的人类总是在一种矛盾的处境中迎来发展,人类的困境依然是永恒的。



| 澎湃好物


这段时间我们挖到的盲盒新玩法——盲盒玉杯!

「物典大家」出品的和田玉杯与蓝田玉杯,今天只需338元就可以抽中其中任意一款!

和田玉青杯出落得似湖水潋滟,清爽醉人,尽显千年宋韵之美。蓝田玉杯白中微微透青,轻叩声音清脆,叫人心生暖意。

玉杯是珍贵的玉器,可互相赠予的美物。可以作为老友互表心意之礼、可以一直伴着长辈的随身之物、父母好友金婚表达心意、家里添丁为宝宝留存......



点击上图,售价¥338元







本期高级编辑 周玉华

推荐阅读

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
iPhone 15 Pro或推新金色/OpenAI:ChatGPT是糟糕的产品/蔚来试驾车冲进人行道ChatGPT是怎么变得这么强的?拆解追溯ChatGPT各项能力的起源黄仁勋对话 ChatGPT 之父:改变世界的 AI 是如何诞生的国际法庭对普京下逮捕令(附全文),乌总统顾问:这是俄罗斯末日的开端…ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇ChatGPT 核心技术大起底——InstructGPT:研究人类反馈数据比加大模型规模更重要!人类“3.0”意识形态战场——ChatGPT的政治化终局ChatGPT的价值观及立场(四)集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布对话复旦管院张诚:ChatGPT是一场AI脱口秀丨驭势2023她把孩子拍成了世界名画全球都为ChatGPT疯狂,它到底是风口还是虚火?深度解读风暴眼中的ChatGPT | 直播预约曾写出毁灭人类计划书,爆火的ChatGPT是把双刃剑ChatGPT 或导致 20 种工作失业?恐怕远远不止,比尔盖茨 :ChatGPT 将改变世界因ChatGPT的诞生,美国信用卡指南宣布破产关闭。文学与历史:四个人的百年中国ChatGPT 之父:GPT-4 是人类迄今最复杂的软件ChatGPT是懂中国电子音乐的,懂的还挺多改变世界的ChatGPT,诞生于2015年突然出手!意大利封杀ChatGPT!马斯克也下场呼吁限制ChatGPT!AI发展可能超越人类思维?2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载全球多所高校都要求学生远离的ChatGPT是什么?蔚来试驾车冲进人行道致一死一伤;OpenAI CEO:ChatGPT是“糟糕的产品”;周黑鸭业绩预计大降超90%丨邦早报从词语意义到关系推断,ChatGPT是如何理解人类语言的?《降临》作者特德·姜:ChatGPT是网上所有文本的模糊图像ChatGPT是“大忽悠”还是真的“狼”? | 陈经对谈|ChatGPT:是新世界的诞生,还是人类末日的开始?老黄:ChatGPT是AI届iPhone/ 马斯克半夜在推特修Bug/ 国内C刊:用聊天机器人不许隐瞒...今日更多新鲜事在此中伊签署联合声明,是美国霸权的终结,还是新冷战的开始?王小波、马未都、王蒙都爱的男人,十五年了,终于等来了!香港大学宣布禁用!ChatGPT是否应被视为“教学公敌”?ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!对于重症肌无力可能的突破领域,ChatGPT是这么回答的bitter是苦,sweet是甜,bittersweet是又苦又甜...以色列自驾游(7)- 永不陷落马萨达她用人体部位搞创意,组合出的作品,骗过很多人的眼睛
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。