AI生态欣欣向荣,是不是大公司的垄断序幕?|前哨
当科技特训营关注如何用好AI时,MIT、AI NOW等机构将注意力都放到了AI变革悄无声息中带来的风险。
今天我们为你整理了其中的核心观点,欢迎看到未来机会的你,看看硬币的另一面,了解大多数人眼中的风险是什么。
1.AI技术的应用不可避免,大众接纳度已经越来越高
虽然关于AI的争议越来越多,但在新技术被广泛采用的当下,越来越多的技术反对者也不得不接受AI已经成为新工具的事实。
2月,美国沃尔顿家庭基金会对 1002 名 K-12 教师和 1000 名 12 至 17 岁的学生进行调查发现,超过一半的教师使用过 ChatGPT,其中 10% 的人每天都在使用;有三分之一的学生表示用过。
几乎所有使用过它的人(88% 的教师和 79% 的学生)都表示它产生了积极影响。
技术支持者表示,新技术应用后,传统的做法就该相应改变,既然新技术让过去的作业容易作弊,就该更换作业形式,而不是禁止技术。
2.人工智能监管的核心问题是技术引发的资源集中
技术管控者认为,AI大模型技术当前过于集中,只掌握在OpenAI、微软、谷歌几家大公司手中,这对未来的产业发展和技术安全都有威胁。
AI NOW的研究认为,AI大模型的发展需要大数据+大算力,二者很大程度上都被大型科技企业垄断,AI技术如果继续被掌握,将导致技术、资源过分集中,需要监管。
3.人工智能的风险正在悄无声息出现
AI NOW的研究提到,科技企业在应对监管上已经有丰富经验,OpenAI、微软、谷歌都反复在强调欢迎监管参与。
OpenAI 3月发布的论文也承认,AI大语言模型将影响 80% 的劳动力,持有学士、硕士学位和专业学位的人更容易受到影响。
实际运作中,新技术产品上线都没有经过严格审核与管理,AI生成内容中的偏见、错漏非常明显,加上商业化竞争越发激烈,大企业为加大AI技术研发的速度,对数据合法性的要求越来越低。
近期纽约时报、华尔街日报等媒体都有报道,很多配音工作者的声音数据在未经同意的情况下被用于训练AI,AI大模型背后的数据没有公布确切来源,众多画家的绘画作品也未经同意就被用于AI训练。
4.人工智能技术的监管需要改变思路,算法审计让位于数据管理
越来越多的监管部门开始认识到,人工智能算法审计的价值有限,面对基础结构简单,处于黑箱状态的AI算法,管理上游的数据更有价值。
目前,意大利、法国、德国、爱尔兰和加拿大的数据监管机构都将数据作为在监管 OpenAI 的手段。
未来数据管控政策就是人工智能管控政策。
5.数据价值尚未完全释放
目前,AI产业虽然都反复强调数据价值,但产业内对数据的关注度仍然不高。
谷歌前计算机科学家Nithya Sambasivan有过专门研究,采访了全球53位AI从业者。
调查发现,AI数据质量引发的的级联问题无处不在,AI大模型中92%的问题都被归结为数据中出现的偏差、错误导致。例如,IBM 癌症治疗 AI 的准确性过低,谷歌流感趋势预测错过高峰点,都被认为是数据问题导致。
该研究认为,大部分问题在数据上游出现时都可以处理,但当前的AI研究重点只关注数据规模,高质量的数据事件缺乏方法和理论。
数据集处理方法已经十几年没有变革,这个领域有待新的变革出现,监管也需要跟上新的变革。
6.「数据最小化」正在成为研究与监管共识
在AI特性的驱动下,学术界与各国监管都认识到数据的价值,以及潜在的变革趋势。
越来越多的机构正在倡导「数据最小化」的监管实践,即限制企业只在有限范围内。
该方案此前因难以完全执行备受争议,但随着AI技术加速成熟,如何限制AI数据来源成为大家关注的重点,再次受到热议。
在我们看来,数据作为越来越重要的资源,未来必然会成为管控的重点,但在这个变革期中,管控技术并未成熟,仍然需要很多尝试与迭代。
7.AI监管当前的重点在大企业
另一类监管思路认为,大型科技企业作为当前的技术引领者,以及资源集中的受益者,加强对它们的监管,是更可行的策略。
要求大企业AI开发透明化,与社会组织合作,更好地探索技术监管的未来雏形。
既然AI技术有可能导致大公司形成垄断优势,直接从这些关键点入手会是好的选择吗?
微信扫码关注该文公众号作者