Redian新闻
>
推特热帖:大语言模型自荐能够替代的20种人类工作!快来看你是否需要转行!

推特热帖:大语言模型自荐能够替代的20种人类工作!快来看你是否需要转行!

公众号新闻

夕小瑶科技说 原创
作者 | 付奶茶
最近推特上有一个例子引起了广泛的讨论,事情的起因是这样的:网友让 GPT-4o 预测一下自己未来将会替代人类哪些工作?

这听起来很有趣!GPT-4o会给出什么样的预测呢?

AI 心里有数

GPT-4o回复了一张表格,列出了GPT-4可能取代人类的20种职业,按可能性排序。表格包含三列:排名、职业、为何优于人类以及可能性:

  • 数据录入员:更快、更准确、不知疲倦,能全天候工作。取代概率:95%
  • 电话推销员:提供一致的服务,能处理大量电话,实时分析客户反应以改善话本。取代概率:90%
  • 客服 :能同时处理多个询问,提供一致的响应,全天候服务。取代概率:88%
  • 文案策划:快速生成高质量内容,能调整风格和语调以适合目标受众,成本效益高。取代概率:85%
  • 技术支持分析师:提供快速准确的解决方案,能处理复杂的故障排除,通过访问庞大的解决方案数据库。取代概率:83%
  • 医疗抄写员:在抄写医疗记录时更高的准确率,更快的处理速度,无需休息。取代概率:82%
  • 校对员:能处理大量文本,减少人为错误。取代概率:80%
  • 市场研究分析师:更高效地分析大数据集,快速识别趋势,提供实时洞察。取代概率:78%
  • 法律助理:能够起草文件,进行法律研究,快速组织文件。取代概率:75%
  • 预约调度员: 高效管理日程,减少调度冲突,提供全天候服务。取代概率:73%
  • 社交媒体经理:生成内容,安排帖子,分析管理数据,高效运营。取代概率:70%
  • 财务分析师 : 分析财务数据,识别趋势,提供更快更准确的洞察。取代概率:68%
  • 翻译 :提供快速准确的多语言翻译,能处理大量文本而不感到疲劳。取代概率:65%
  • 旅行代理:快速搜索并预订旅行住宿,根据数据分析提供个性化推荐。取代概率:63%
  • 内容审核员:持续监控和过滤内容,能处理大量数据,应用一致的准则。取代概率:60%
  • 招聘协调员:筛选简历,安排面试,高效管理候选人数据库。取代概率:58%
  • 新闻记者:快速生成新闻文章,能分析数据和趋势,提供实时更新。取代概率:55%
  • 研究助理:进行文献回顾,总结发现,高效组织研究数据。取代概率:53%
  • 销售代表:生成潜在客户,跟进潜在客户,提供一致的销售推介和客户跟进。取代概率:50%
  • 图书管理员:管理和编目信息,协助研究查询,提供数字资源的高效访问。取代概率:48%

原来GPT-4o真心里有数呢!

它不仅了解人类的能力,还深刻认识到自己在哪些工作领域能够逐步取代人类。通过它那独特的“电子眼”,GPT-4o对人类的职业世界进行了仔细的观察和分析。

奶茶过了一遍这个清单,看似很有道理,特别是那些目前GPT-4已经显示出明显能力优势的职业,替代的概率更高。

还有网友问了下Claude3:

Claude 3 列出来AI替代的20种职业,包括客服、数据录入、语言翻译、内容审核、撰写广告文案、校对与编辑、市场研究分析、基础代码开发、广告拷贝创作、预约调度、数据可视化、基础会计、社交媒体帖子生成、食谱创作、基础法律文件起草、个性化辅导、旅行行程规划、基础图形设计、歌词创作和健身训练计划创建。

那什么职业不会被替代呢?

GPT-4o同样回复了一张表格,根据替代可能性的低到高进行排序,每个职业旁边列出了为何人类在该领域不容易被替代的理由以及被AI替代的概率百分比:

  • 创意总监:需要独特的人类创造力、愿景以及领导和激励创意团队的能力(5%概率)。
  • 心理治疗师: 需要深厚的人类同理心、直觉和建立与病人的个人联系的能力(8%概率)。
  • 外科医生:需要复杂的实际操作技能、实时决策能力以及应对突发情况的适应力(10%概率)。
  • 教师: 涉及人际交往、情感智慧以及激励和指导学生的能力(12%概率)。
  • 首席执行官:需要战略性视野、领导力、复杂决策能力和建立人际关系的能力(15%概率)。
  • 演员/女演员:依赖独特的人类表情、情感以及与观众建立个人联系的能力(18%概率)。
  • 社会工作者 :需要深刻的同理心、人际交往能力和处理复杂情感问题的能力(20%概率)。
  • 警察:需要人类的判断力、身体存在以及处理不可预测情况的能力(23%概率)。
  • 消防员 :需要身体勇气、快速决策能力以及解决问题的实际操作技能(25%概率)。
  • 法官:需要复杂的法律推理、伦理判断和在决策中权衡人类因素的能力(28%概率)。
  • 活动策划者:涉及创造力、人际接触和管理动态、实时变化及人际互动的能力(30%概率)。
  • 记者:需要调查技能、人类判断力以及与消息来源建立信任和关系的能力(33%概率)。
  • 咨询师:涉及人际连接、同理心以及导航复杂的情感和心理问题的能力(35%概率)。
  • 艺术家:需要独特的人类创造力、表达以及通过艺术唤起情感的能力(38%概率)。
  • 外交官:需要高水平的谈判技巧、文化理解以及建立和维护关系的能力(40%概率)。
  • 人类学家:涉及田野工作、人际交往以及解读人类文化的能力(43%概率)。
  • 厨师:需要创造力、实际操作技能以及创造独特的烹饪体验的能力(45%概率)。
  • 建筑工人:需要体力劳动、解决问题的实际操作技能以及适应动态工作环境的能力(48%概率)。
  • 急救医疗人员:涉及实际医疗护理、快速决策和处理高压情况的能力(50%概率)。
  • 生活教练:需要深厚的人际联系、同理心以及激励和启发个人的能力(53%概率)。

根据GPT-4o给出来的名单,那些涉及深层人际互动、需要创造性思维、或者在复杂情况下需要迅速作出决策的工作,像是教师、心理治疗师、艺术家,这些都不太可能被AI替代。这些工作不仅需要理解人类的情感,还要有能力进行艺术表达或处理复杂多变的环境。

而那些重复性高、规范化流程明确的任务,比如数据录入或基于固定规则的分析工作,更容易被AI替代,因为这些工作AI已经可以高效完成。

奶茶觉得要么是需要真实环境中的人际交往,或者需要一点非框架思维的地方,人类的独到之处仍然是AI所无法替代的。在虽然AI很强大,但某些人类独有的特质是无法被机器复制的。

拟人化的弊端

上个月,Google DeepMind发布了一篇论文,详细地阐述了拟人化人工智能的潜在弊端,称这类助手可能会重新定义「人类」和「其他」之间的界限。论文探讨了以下几个关键领域:

论文链接:
https://arxiv.org/pdf/2404.14068

  1. 误导感知的风险:拟人化的AI可能会使用户对系统的能力和限制产生误解,这可能导致过度信任或低估系统的功能界限。当AI以接近或模仿人类的方式表现时,用户可能会错误地赋予其超出其真实能力的信任,如过度依赖AI的决策支持功能。

  2. 伦理和社会影响:赋予AI人类特质可能会使伦理考虑更加复杂,如隐私、自主性和责任问题。例如,用户可能会错误地认为AI具有它实际上并不具备的决策能力,从而引发关于问责制和透明度的伦理问题。这种误解可能导致责任归属不清,当AI的决策导致负面后果时,难以确定责任。

  3. 设计偏见:拟人化AI的设计过程可能引入或加剧偏见。这在AI与不同用户群体互动时尤为关键,因为拟人化特征可能反映特定的文化、性别或社会规范,这些规范并非普遍适用或可接受。这可能导致某些群体在使用AI时感到不舒服或被边缘化。

  4. 对人类行为的影响:与类人AI的互动可能以意想不到的方式影响人类行为。例如,人们可能会改变他们的自然互动方式或变得依赖AI进行社交互动,这可能影响社交技能和情感福祉。长期依赖可能削弱人类处理复杂人际关系的能力。

  5. 监管和治理挑战:拟人化的AI在监管和治理上呈现独特挑战,因为类人的互动可能会模糊工具与代理之间的界限,使得管理AI使用和责任的法律框架变得复杂。确定如何以及何时对AI的行为进行监管变得更加困难。

这篇论文提到了用户可能会把重要决策委托给AI、向AI透露敏感信息,甚至在情感上过度依赖AI等现象。

随着AI技术日益进步,它们变得越来越像人类,这难免引发一些担忧。在科技高度发展的今天,只有每一步的前进都慎重考虑,才能确保技术的应用方向是正确、可持续的,避免潜在的负面影响。

而就在最近,OpenAI几大操作却引发了大量争议!

AI可以用来战争吗?

OpenAI的最新成果GPT-4o在上周的大会上引起了广泛关注,特别是其在情感依赖方面的应用,能够输出高度情绪化的语音回复,而且能够读取用户情绪健康状态。

这样的能力不仅令人惊叹,也不可避免地引发了一系列道德和安全上疑虑。

我们正见证一个人工智能可以解读甚至操纵人类情绪的新时代。但是如此深入地介入人类的情感生活,而对应的监管的规定和限制却是空白,AI被赋予的这项能力能力难道不是打开的潘多拉的盒子,将会释放一系列预料之外的后果吗?

更令人不安的是,OpenAI最近悄然撤销了限制将ChatGPT用于“军事和战争”应用的禁令,这一决策无疑为AI技术的军事利用打开了大门。

虽然目前的AI系统还不能直接控制执行致命任务的武器系统,如无人机或导弹发射装置,但它们可以在战争中扮演关键的辅助角色。

例如,AI可以用于优化战术决策,分析情报数据,协调物资和兵力的调配,甚至模拟敌对力量的行动以预测其战术。此外,AI技术也能够加速军事通信和文书处理,提高军事行动的效率和响应速度。

然后随着技术的进步,未来AI可能被整合进更直接的战斗系统中。例如,通过AI增强的目标识别系统可能会被用来自动化攻击决策过程,从而降低人类决策者的直接参与。

奶茶也很担忧,AI真的有权利参与战争吗?要知道,战争和杀戮是紧紧相连的。

当我们讨论AI参与战争的问题时,不仅需要探讨人类决策者如何、在何种范围内使用这些技术。而且还要探讨AI“拥有权利”参与战争吗,我们人类的世界要赋予AI这个权利吗?

AI本身作为工具,没有权利或意志,它的行动完全受制于人类的设计和指令。但是AI决策的责任归属问题非常复杂,如果发生错误,确定责任变得难以追踪。

其次,AI有没有权利作出致命的决策呢?AI可能难以准确执行战争法和国际人道法中的伦理限制,如区分平民和战斗人员,这可能导致不必要的伤害或损失。

小结

再结合我们开头提到的AI可以替代人类的工作这个话题,AI在模仿和执行人类任务方面的边界究竟在哪里?AI真的能够慢慢替代人类吗?

这是一个值得我们深思的问题。随着技术的迅猛发展,AI正越来越多地渗透到各个行业,甚至开始胜任一些原本需要人类独特技能和判断力的工作。那么,AI能够做到哪些,无法做到哪些,它的能力极限是什么?这些问题不只是技术上的挑战,更涉及伦理、法律和社会经济等多个层面。

这是一个需要我们认真考虑和广泛讨论的问题。大家对此怎么看?欢迎一起来探讨,分享你的见解和看法。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
​ACL 2024 | 新一代艺术媒介:探索基于大语言模型的互动戏剧ACL 2024 Findings | 视频大语言模型能理解视频中的时序信息吗?英国语言班开启,快来看看12周语言、8周语言班的同学住哪里!戛纳力挺女性电影工作者,斯威夫特热影响童书出版 | 文化周报百川智能王小川:大模型价格战是好事;智源发布全球首个低碳万亿语言模型Tele—FLM丨AIGC日报ICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准奥特曼谈AI的机遇、挑战与人类自我反思:中国将拥有独特的大语言模型英国语言班即将开启,短期语言班住哪里?快来看看语言班同学都住哪!岁运 -盖头,截脚今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准大语言模型何时需要检索?UCLA提出全新自监督选择性检索策略ICML 2024 | 大语言模型如何表征不同信念?今日arXiv最热NLP大模型论文:清华大学:大语言模型的常见词僻意理解能力竟不如中学生今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理失业潮还是新机遇?AI 无法取代的 20类工作ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准深圳/香港/上海内推 | 商汤研究院基础语言模型团队招聘大语言模型算法研究员全英语言班即将开启,快来看看你们20周、18周、16周语言班的同学住哪里?ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了最知心的朋友Bill Maher 说的没有错LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」人类偏好就是尺!SPPO对齐技术让大语言模型左右互搏、自我博弈微软拟与OpenAI投资1000亿美元建AI超算;Databricks 推出1320亿参数大语言模型 DBRX丨AIGC日报NAACL 2024 | 阿里提出大语言模型对齐框架Reward Learning on Policy (RLP)英国语言班即将开始,快来看看你的语言班同学都住哪里?ACL 2024 | 多目标直接偏好优化MODPO:大语言模型的多目标对齐人物 | 所罗门诺夫:大语言模型的先知地磁暴对AI Claude 3的影响,绝顶聪明了开奖啦!快来看看你获奖了吗?[COLING 2024教程] 多模态大语言模型MLLM系列教程纽约人快来申请!MTA开放拥堵费减免申请了, 看看你是否符合条件....全英语言班即将开启,快来看看这些便宜的语言班房源吧,寻找一个语言班搭子!阿根廷布宜诺斯艾利斯(Buenos Aires),城市老建筑ACL 2024 | 大语言模型的安全对齐会适得其反?无需训练便能逆转安全对齐
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。