Redian新闻
>
希望或毁灭,AI技术爆发信任危机!

希望或毁灭,AI技术爆发信任危机!

公众号新闻

#Creativity of the Times时代创造力


AI信任危机主题海报,芭莎设计大赏通过AI工具创作


随着欧盟议会(European Parliament)以压倒性结果通过全球最严格的《人工智能法》(Artificial Intelligence Act)草案,一系列严格的对人工智能技术(AI,Artificial Intelligence)的管控将陆续出台:包括全面禁止使用实时面部识别软件(live facial recognition software)、全面禁止生物特征数据抓取(biometric data scraping)等。


这一法规的通过,标志着人类首次由大型经济体主导,推出对人工智能技术进行严格监管,预计将对世界各地其他监管制度产生重要影响,推动全球对人工智能技术的规范和保护措施。



新法案将禁止人工智能系统进行社会评分、生物识别分类和情感识别 © AdobeStock_Goodpics 



人工智能技术涉及到数据信任、源代码开放、透明度监管等数个维度,其信任危机的讨论,已经从专业问题变成一个事关人类社会秩序与发展的共同问题。


《魏玛文化论坛》(The Kultur symposium Weimar) ,是由歌德学院每两至三年举办的“思想嘉年华”。论坛会邀请世界各地的专家、知识分子、艺术家和行动家来到德国魏玛,对全球性文化议题及其对社会的影响进行深入探讨。


2023魏玛文化研讨会© volkswagen-newsroom


“芭莎设计大赏BAZAAR Design Awards” 独家获邀参加了2023年度的《魏玛文化论坛》,今年的讨论主题即是:《信任的问题》 (A Matter of Trust),旨在探讨AI技术大面积使用后,从个人到社会、政治、媒体等各个领域将产生的问题与挑战。


论坛主题

论坛地点

主持人

 我们信任科技吗?

(A Matter of Trust)

德国魏玛

歌德学院

Jakob Racek


对谈嘉宾


Rasika

Bhalerao

Ramak Molavi

Vasse'i

Lykke Margot

Ricard

Patrick

van der Smagt

Jakob

Racek



_

Rasika Bhalerao

(以下简称RB)


_

美国东北大学考瑞学院教授

Ramak Molavi Vasse'i

(以下简称RMV)


_

数位权利律师兼创新法专家

Lykke Margot Ricard

(以下简称LMR)


_

南丹麦大学教授

Patrick van der Smagt

(以下简称PvdS)


_

大众汽车集团机器学习研究实验室主任

Jakob Racek

(以下简称JR)


_

歌德学院信息服务部主任



1

如虎添翼VS如临深渊

人工智能是希望还是毁灭?


JR

对于人工智能,你选择信任还是怀疑?


人工智能确实可以成为解决紧迫全球问题的有力工具,特别是在应对气候变化方面。科学家们能够利用人工智能在材料发现和碳捕获等领域取得突破,但我们不能完全信任AI。


RB

滑动查看更多

emilio alarcón的AI系列通过移动温室巴士重新构想城际交通©thursd



作为一名科学家,我已经习惯了保持怀疑性态度,因此我的答案是信任和怀疑都不可或缺。但这并不影响我认为人工智能在未来值得投资,比如医疗保健领域。人们总是希望在疾病发生之前就检测到身体异常,这个领域潜力巨大。


LMR


2023魏玛文化研讨会开幕式表演von Yoann Bourgeois© Victoria Tomaschko / Goethe-Institut

Yoann Bourgeois的作品“Demokratie”© Candy Welz / Goethe-Institut



我认为怀疑是必要的,尽管人工智能模型是有价值的工具,但我们不应该对它盲目信任。对生产工具的信任和对人工智能模型的信任之间存在区别。当购买一个锤子或吸尘器时,信任基于认证而建立,并不能无缝转移到人工智能模型上。

PvdS




chatGPT 在移动设备中使用语音转文本、语音控制和行程路线  ©designboom




JR

Patrick van der Smagt主任是否能介绍一下大众汽车实验室的人工智能实践研究?


实验室研究生成式机器学习已经数十年了,这些模型能够预测和控制复杂的系统,模拟复杂的动态系统和语言。例如根据自行车手与环境的互动来预测他们的运动。我们正在采用对学习动力学进行优化,控制程序来实现节能,目前被应用于空气压缩机中,希望这项研究未来有可能在各个领域实现巨大节能。

PvdS




“人性化的 AI pin”可作为可穿戴智能手机,在手上投射通话、应用程序等内容©designboom



2

高悬在人类文明头顶的

达摩克利斯之剑


JR

对待人工智能,人们的看法差异很大,Lykke Margot Ricard做为一名创新研究人员,怎样判定一项新技术是否友善、是否能被社会接受和信任?


我更愿形容为人工智能技术被社会接受的权利。在建立起人类信任之前,我们需要弄清楚它可以做多少好事、提供多少支持,以及这项技术的研发是为了支持人们还是替代人类。


一项技术可以带来好处,也可以对社会造成巨大伤害。一项新技术产生后,是否对社会有益将有目共睹。

LMR


电影《终结者》

The Terminator,1984

©Orion

电影《机器管家》

Bicentennial Man,1999

©Columbia

电影《A.I》

A.I. Artificial Intelligence,2001

©DreamWorks

电影《机械公敌》

I, Robot,2004

©20th Century

电影《她》

Her,2013

©Annapurna

电影《攻壳机动队》

Ghost in the Shell,2017

©DreamWorks

电影《超能陆战队》

Big Hero 6,2014

©Disney

电影《头号玩家》

Ready Player One,2018

©WARNER BROS

AI主题科幻电影



JR

你们都主张公共利益和无偏见的人工智能发展,为什么需要建立道德和法律规则来避免人工智能中的此类歧视模式?



人工智能系统的算法决策并非完全中立,而是受到开发者的思维方式和价值观的影响。因此,理解和认识到潜在偏见或限制非常关键。


尽管有外部机构对人工智能歧视问题进行监管,个人开发者依然具备影响其算法结果的能力。个人开发者和程序员必须对其代码中的隐性选择负责,这些隐性决定可以引导编码选择对社会的广泛影响,并积极努力将人工智能系统中的偏见和歧视降到最低。

RB


任意给“Make-A-Video”AI模型输入几个单词就能生成符合语义的但在现实中却并不存在的视频画面©Meta AI



根据互联网上的数据进行训练的人工智能,往往反映了社会偏见,放大了现有的不平等现象。虽然在人工智能开发和数据清理过程中,可以通过多元化的团队代表来努力减轻偏见,但实现完全消除偏见仍然是不可行的。


我们应该将重点转移到解决有偏见的人工智能系统的后果和受影响社区的赔偿概念上,不断完善人工智能系统的必要性,承认有偏见的算法对边缘化群体的影响。

RMV



我们需要开展相关教育和培训,使程序员和编码员能够更加深入地理解人工智能系统的工作原理和潜在的偏见或限制。此外,我们还需要鼓励合作和交流,以建立一个可以共同解决这些问题的平台。

RB


远程操作机器人帮助恢复亚马逊雨林 ©designboom


3

病毒式增长

人工智能黑箱性爆发信任危机


JR

人工智能未来生命研究所发表了一封公开信,要求暂停人工智能研究至少6个月,Patrick van der Smagt也署名了对吗?



我们不知道人类是否已经释放出了一只野兽。当然,它也许是一只伟大的野兽,但我们仍然害怕它。我们需要思考如何应对这只野兽,让它从善?让它放松,还是再创造另外100只野兽?我不知道每天会有多少类似事件发生,所以我宁愿暂停下来,尝试了解未来,以及认清当下我们面临的是希望还是威胁。

PvdS


知名杂志Clarkesworld2023年5月刊投稿封面被指出是AI生成而暂停全球封面征稿©Clarkesworld

漫威剧集《秘密入侵》片头由AI生成©MarvelStudios



JR

透明度对于一个律师而言非常重要,Ramak Molavi Vasse'i对即将出台的欧盟人工智能法案有什么看法?



透明度应该被看作是防止伤害的手段,而不是最终目标。不同的利益相关者需要不同的透明度,需要在透明度和避免透明度疲劳之间取得平衡。无论是寻求决策解释的终端用户、医疗保健人士还是评估系统功能的监管者,人工智能开发往往难以提供足够的透明度,他们倾向于将客户需求置于最终用户的关注之上。

RMV



我也补充一点,平衡人工智能领域的监管和创新是一个挑战,过早制定标准可能会阻碍市场发展。透明度确实至关重要,特别是涉及开放原始程序人工智能,因为它允许对可能带有偏见的代码和算法进行检查。


为了解决人类对人工智能的怀疑和疑虑,必须采取科学的方法,咨询多位科学家以验证研究结果。

LMR



获得过2600多万浏览、3万多次转发的「时尚教皇」图片被证实是AI生成的假新闻©Eliot Higgins



JR

对于人工智能的监管和立法,各位的看法是什么?


负责任的行业实践和积极主动的行为尤其关键,而不仅仅依靠法规。对人工智能的信任需要一个整体的方法,包括积极的行为、道德准则和利益相关者之间的持续合作。教育是一个关键的组成部分,需要对数据科学和机器学习进行全面的评估和指导,确保社会、监管机构和行业利益相关者在AI道德发展和部署方面的集体责任。


企业利益和科学诚信之间存在微妙的平衡。虽然大型科技组织内的道德科学团队已经出现,但这些团队被解散或研究人员在发表关于基金会模型的批评性论文后被解雇的事例引起了人们的关注。我们需要一个强大的研究生态系统,鼓励批判性分析和建设性对话,不受企业影响。鼓励学术界、工业界和独立研究人员之间的合作,可以促进对人工智能发展采取更包容和负责任的方法。

RMV



我们应该建立一个鼓励合作开发的开放环境,允许审查和集体建立信任,不能仅仅依靠法规作为唯一的解决方案,应该将现有的立法框架、道德规则和操作化与《人工智能法》结合起来,可以帮助实现积极的成果,并解决围绕偏见和问责制的担忧。



PvdS

坂本龙一通过混合现实音乐会 KAGAMI 复活并演奏钢琴©Hypebeast

以43.25万美元在佳士得纽约成交的AI艺术作品《爱德蒙·贝拉米,来自贝拉米家族》©CHRISTIE'S

画布上的代数公式签名©Obvious



4

走向信任的旅程

绊脚石也可能是垫脚石


JR

刚刚提到人工智能在医疗领域有特别大的帮助,能举例说明吗?



人工智能构成了我们获取专业知识的来源,我们几乎是毫无怀疑地相信这些信息。在生死攸关的人工智能在精准医疗、疾病检测和早期症状识别方面有着巨大的潜力。通过数字病人记录和高级分析的整合,人工智能能够更有效地分析大量数据,辅助医生进行疾病的检测和诊断。


丹麦的模式为人工智能在医疗领域的应用提供了成功的范例,该模式建立了可访问的病人记录和独特的识别号码系统,这使得研究人员能够使用大量的数据集进行研究,从而改善病人的治疗效果,并减轻医疗系统的负担。


除了丹麦,国际平台也在医疗领域引入了类似的技术,使得疾病的预防和治疗更加精细化和个性化,减少了误诊和漏诊的可能性。重大抉择中,需要有专业人士来判断和制衡人工智能给出的答案。

LMR



人工智能在医疗保健领域可能会出现明显的差异。例如皮肤癌检测人工智能系统,在黑人皮肤上的表现可能就会很糟糕,我们要谨慎地将人工智能整合到医疗保健中,针对不同人群实施人工智能解决方案,考虑到现实性和局限性,以确保所有人都能从中受益。

RMV


可穿戴机器人手臂©DAISUKE URIU



JR

面对面交谈讨论的形式从两千多年前的柏拉图时代就开始了,现如今我们还有机会与非人类交谈。所以,最后让我们畅想一下人工智能行业的未来会发生怎样的变化?



我们应该将人工智能作为一种有价值的工具,同时也认识到它的局限性和潜在的偏见,对于利用其力量产生积极影响至关重要。通过批判性思维和对人工智能的细微理解,塑造出一个负责任地利用技术的未来,促进创新,解决全球挑战,并创造一个更公平的社会。

RB



PERFORMANCE_Cyber Elf_© Candy Welz

Mood KSWE23© Victoria Tomaschko / Goethe-Institut



通过积极的行业实践、全面的教育以及社会和监管机构之间的合作努力,我们可以确保人工智能的利用是为了更大的利益,其部署符合道德原则。通过认识到人工智能的局限性,解决偏见,找到透明度的正确平衡点,实施全面的法规和负责任的行业惯例,我们可以为符合道德原则的人工智能驱动的未来铺平道路。


RMV


关键应该放在技术作为支持性工具的作用上,而不是取代人类的专业知识,人工智能在医疗领域的变革潜力是不可否认的,而其负责任的发展对于获得其利益至关重要。


通过认识到人工智能是一种支持性的工具,而不是人类专业知识的替代品,我们可以确保技术和医疗保健专业人士之间的和谐互动。在解决与人工智能算法相关的担忧和偏见方面,透明度和同行评审至关重要,使我们能够建立信任并验证其功效。


当人工智能被视为一种支持和增强人类专业知识的工具而不是替代时,信任度就会自然提高。

LMR


3D打印拇指机器人可以轻松抓住物体,绕过受伤的脊髓或缺失的肌肉组织进行大脑控制©Startup



信任和怀疑应该并存,即使是用心良苦的研究论文也可能包含错误或无意的欺骗。这就需要一种批判的心态和谨慎的方法来确保人工智能技术的可靠性。


在建立对人工智能模型和系统的信任时,需要持怀疑态度,进行批判性评估和道德考虑。通过拥抱透明度,整合负责任的做法,并优先考虑人工智能教育,我们可以培养信任,并自信地驾驭人工智能的复杂地形,确保人工智能仍然是一个有价值的工具,在最大限度地减少潜在风险的同时造福人类。

PvdS




GREEN BAZAAR

芭莎文化创新部

出品


总编辑:沙小荔

出品人:董云燕

监制:徐宁

项目运营:杨帆

文:Peifen Sung

实习编辑:曾庆威



📮产品/项目推荐、撰稿/拍摄合作

[email protected]



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
“锂”想破灭,真“锂”长存破防!清纯小师妹深夜给师兄发信息竟遭拒:求你了!这20个实验protocol我送你!解决技术工人短缺危机!澳洲几大院校开设30门短期课程,发放“微证书”,政府提供$1850万资金!人类真正的危机是精神危机,是人性危机!【好消息】搭乘加航飞机可免费使用微信收发信息了!迈向普罗大众的生成式 AI:如何为技术爆发创造条件危机!多伦多恐陷入衰退深渊:这个原因导致中产被团灭,只剩穷人“发信息” 可不是 send message!谷歌凌晨发信:请回办公室搬砖,不然嘿嘿...一个理想主义者的毁灭,为什么贾府不赶走焦大?[咋舌]激增440%!加拿大爆发难民危机!9000个庇护所爆满:大批流浪汉沿街扎营!存量时代,广发信用卡经营制胜的道与术银行频发信用卡不良ABS 半年规模创历史同期新高抒发当危机接着危机,希望奥特曼在这里!撑不住了!加拿大房价最便宜的大城市宣布爆发住房危机!中国社会目前最大的危机,是陷入死循环的信任危机!危机|加拿大将被犯罪、毒品和流浪汉吞噬?中产阶级团灭,只剩穷人!QDII再度扩容!主动权益产品遭遇信任危机,ETF反而受捧AI抢人大战告一段落!8位赢家胜出,西雅图或成下一代AI技术爆发地9个机器人开会宣布不会毁灭,这炒作有点滑稽🤪“计划破灭,莫迪受挫”,却无人回应重大!我国驻乌克兰大使馆发信号了惊呆!女医学生凌晨两点给男导师发信息!聊天记录曝光,内容太劲爆了!《花尾渡》(小说) 第十章 万贯家财总有源激增440%!多伦多爆发难民危机!9000个庇护所爆满:大批流浪汉沿街扎营!不要发!客户最讨厌收到你写的这类外贸开发信Amazon/亚马逊公司2023年股东年会公共政策委员会提案春游Yorkshire四首倒卖毕业生简历,58同城信任危机何时休?沪语歌一段好的关系,开始打破我对男性的「信任危机」外星人?神秘来源持续35年向地球发信号 每隔22分钟一次工具人、信任危机、销售机器…如何打破投顾"困局"?“去国外散散心”!闽籍朋友邀请出行 31岁华女下机后失联 发信求救
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。