希望或毁灭,AI技术爆发信任危机!
#Creativity of the Times时代创造力
AI信任危机主题海报,芭莎设计大赏通过AI工具创作
随着欧盟议会(European Parliament)以压倒性结果通过全球最严格的《人工智能法》(Artificial Intelligence Act)草案,一系列严格的对人工智能技术(AI,Artificial Intelligence)的管控将陆续出台:包括全面禁止使用实时面部识别软件(live facial recognition software)、全面禁止生物特征数据抓取(biometric data scraping)等。
这一法规的通过,标志着人类首次由大型经济体主导,推出对人工智能技术进行严格监管,预计将对世界各地其他监管制度产生重要影响,推动全球对人工智能技术的规范和保护措施。
新法案将禁止人工智能系统进行社会评分、生物识别分类和情感识别 © AdobeStock_Goodpics
人工智能技术涉及到数据信任、源代码开放、透明度监管等数个维度,其信任危机的讨论,已经从专业问题变成一个事关人类社会秩序与发展的共同问题。
《魏玛文化论坛》(The Kultur symposium Weimar) ,是由歌德学院每两至三年举办的“思想嘉年华”。论坛会邀请世界各地的专家、知识分子、艺术家和行动家来到德国魏玛,对全球性文化议题及其对社会的影响进行深入探讨。
2023魏玛文化研讨会© volkswagen-newsroom
“芭莎设计大赏BAZAAR Design Awards” 独家获邀参加了2023年度的《魏玛文化论坛》,今年的讨论主题即是:《信任的问题》 (A Matter of Trust),旨在探讨AI技术大面积使用后,从个人到社会、政治、媒体等各个领域将产生的问题与挑战。
论坛主题 | 论坛地点 | 主持人 |
我们信任科技吗? (A Matter of Trust) | 德国魏玛 歌德学院 | Jakob Racek |
对谈嘉宾
Rasika
Bhalerao
Ramak Molavi
Vasse'i
Lykke Margot
Ricard
Patrick
van der Smagt
Jakob
Racek
Rasika Bhalerao (以下简称RB) | 美国东北大学考瑞学院教授 | |
Ramak Molavi Vasse'i (以下简称RMV) | 数位权利律师兼创新法专家 | |
Lykke Margot Ricard (以下简称LMR) | 南丹麦大学教授 | |
Patrick van der Smagt (以下简称PvdS) | 大众汽车集团机器学习研究实验室主任 | |
Jakob Racek (以下简称JR) | 歌德学院信息服务部主任 |
1
如虎添翼VS如临深渊
人工智能是希望还是毁灭?
JR
对于人工智能,你选择信任还是怀疑?
人工智能确实可以成为解决紧迫全球问题的有力工具,特别是在应对气候变化方面。科学家们能够利用人工智能在材料发现和碳捕获等领域取得突破,但我们不能完全信任AI。
RB
滑动查看更多
emilio alarcón的AI系列通过移动温室巴士重新构想城际交通©thursd
作为一名科学家,我已经习惯了保持怀疑性态度,因此我的答案是信任和怀疑都不可或缺。但这并不影响我认为人工智能在未来值得投资,比如医疗保健领域。人们总是希望在疾病发生之前就检测到身体异常,这个领域潜力巨大。
LMR
2023魏玛文化研讨会开幕式表演von Yoann Bourgeois© Victoria Tomaschko / Goethe-Institut
Yoann Bourgeois的作品“Demokratie”© Candy Welz / Goethe-Institut
我认为怀疑是必要的,尽管人工智能模型是有价值的工具,但我们不应该对它盲目信任。对生产工具的信任和对人工智能模型的信任之间存在区别。当购买一个锤子或吸尘器时,信任基于认证而建立,并不能无缝转移到人工智能模型上。
PvdS
chatGPT 在移动设备中使用语音转文本、语音控制和行程路线 ©designboom
JR
Patrick van der Smagt主任是否能介绍一下大众汽车实验室的人工智能实践研究?
实验室研究生成式机器学习已经数十年了,这些模型能够预测和控制复杂的系统,模拟复杂的动态系统和语言。例如根据自行车手与环境的互动来预测他们的运动。我们正在采用对学习动力学进行优化,控制程序来实现节能,目前被应用于空气压缩机中,希望这项研究未来有可能在各个领域实现巨大节能。
PvdS
“人性化的 AI pin”可作为可穿戴智能手机,在手上投射通话、应用程序等内容©designboom
2
高悬在人类文明头顶的
达摩克利斯之剑
JR
对待人工智能,人们的看法差异很大,Lykke Margot Ricard做为一名创新研究人员,怎样判定一项新技术是否友善、是否能被社会接受和信任?
我更愿形容为人工智能技术被社会接受的权利。在建立起人类信任之前,我们需要弄清楚它可以做多少好事、提供多少支持,以及这项技术的研发是为了支持人们还是替代人类。
一项技术可以带来好处,也可以对社会造成巨大伤害。一项新技术产生后,是否对社会有益将有目共睹。
LMR
AI主题科幻电影
JR
你们都主张公共利益和无偏见的人工智能发展,为什么需要建立道德和法律规则来避免人工智能中的此类歧视模式?
人工智能系统的算法决策并非完全中立,而是受到开发者的思维方式和价值观的影响。因此,理解和认识到潜在偏见或限制非常关键。
尽管有外部机构对人工智能歧视问题进行监管,个人开发者依然具备影响其算法结果的能力。个人开发者和程序员必须对其代码中的隐性选择负责,这些隐性决定可以引导编码选择对社会的广泛影响,并积极努力将人工智能系统中的偏见和歧视降到最低。
RB
任意给“Make-A-Video”AI模型输入几个单词就能生成符合语义的但在现实中却并不存在的视频画面©Meta AI
根据互联网上的数据进行训练的人工智能,往往反映了社会偏见,放大了现有的不平等现象。虽然在人工智能开发和数据清理过程中,可以通过多元化的团队代表来努力减轻偏见,但实现完全消除偏见仍然是不可行的。
我们应该将重点转移到解决有偏见的人工智能系统的后果和受影响社区的赔偿概念上,不断完善人工智能系统的必要性,承认有偏见的算法对边缘化群体的影响。
RMV
我们需要开展相关教育和培训,使程序员和编码员能够更加深入地理解人工智能系统的工作原理和潜在的偏见或限制。此外,我们还需要鼓励合作和交流,以建立一个可以共同解决这些问题的平台。
RB
远程操作机器人帮助恢复亚马逊雨林 ©designboom
3
病毒式增长
人工智能黑箱性爆发信任危机
JR
人工智能未来生命研究所发表了一封公开信,要求暂停人工智能研究至少6个月,Patrick van der Smagt也署名了对吗?
我们不知道人类是否已经释放出了一只野兽。当然,它也许是一只伟大的野兽,但我们仍然害怕它。我们需要思考如何应对这只野兽,让它从善?让它放松,还是再创造另外100只野兽?我不知道每天会有多少类似事件发生,所以我宁愿暂停下来,尝试了解未来,以及认清当下我们面临的是希望还是威胁。
PvdS
知名杂志Clarkesworld2023年5月刊投稿封面被指出是AI生成而暂停全球封面征稿©Clarkesworld
漫威剧集《秘密入侵》片头由AI生成©MarvelStudios
JR
透明度对于一个律师而言非常重要,Ramak Molavi Vasse'i对即将出台的欧盟人工智能法案有什么看法?
透明度应该被看作是防止伤害的手段,而不是最终目标。不同的利益相关者需要不同的透明度,需要在透明度和避免透明度疲劳之间取得平衡。无论是寻求决策解释的终端用户、医疗保健人士还是评估系统功能的监管者,人工智能开发往往难以提供足够的透明度,他们倾向于将客户需求置于最终用户的关注之上。
RMV
我也补充一点,平衡人工智能领域的监管和创新是一个挑战,过早制定标准可能会阻碍市场发展。透明度确实至关重要,特别是涉及开放原始程序人工智能,因为它允许对可能带有偏见的代码和算法进行检查。
为了解决人类对人工智能的怀疑和疑虑,必须采取科学的方法,咨询多位科学家以验证研究结果。
LMR
获得过2600多万浏览、3万多次转发的「时尚教皇」图片被证实是AI生成的假新闻©Eliot Higgins
JR
对于人工智能的监管和立法,各位的看法是什么?
负责任的行业实践和积极主动的行为尤其关键,而不仅仅依靠法规。对人工智能的信任需要一个整体的方法,包括积极的行为、道德准则和利益相关者之间的持续合作。教育是一个关键的组成部分,需要对数据科学和机器学习进行全面的评估和指导,确保社会、监管机构和行业利益相关者在AI道德发展和部署方面的集体责任。
企业利益和科学诚信之间存在微妙的平衡。虽然大型科技组织内的道德科学团队已经出现,但这些团队被解散或研究人员在发表关于基金会模型的批评性论文后被解雇的事例引起了人们的关注。我们需要一个强大的研究生态系统,鼓励批判性分析和建设性对话,不受企业影响。鼓励学术界、工业界和独立研究人员之间的合作,可以促进对人工智能发展采取更包容和负责任的方法。
RMV
我们应该建立一个鼓励合作开发的开放环境,允许审查和集体建立信任,不能仅仅依靠法规作为唯一的解决方案,应该将现有的立法框架、道德规则和操作化与《人工智能法》结合起来,可以帮助实现积极的成果,并解决围绕偏见和问责制的担忧。
PvdS
坂本龙一通过混合现实音乐会 KAGAMI 复活并演奏钢琴©Hypebeast
以43.25万美元在佳士得纽约成交的AI艺术作品《爱德蒙·贝拉米,来自贝拉米家族》©CHRISTIE'S
画布上的代数公式签名©Obvious
4
走向信任的旅程
绊脚石也可能是垫脚石
JR
刚刚提到人工智能在医疗领域有特别大的帮助,能举例说明吗?
人工智能构成了我们获取专业知识的来源,我们几乎是毫无怀疑地相信这些信息。在生死攸关的人工智能在精准医疗、疾病检测和早期症状识别方面有着巨大的潜力。通过数字病人记录和高级分析的整合,人工智能能够更有效地分析大量数据,辅助医生进行疾病的检测和诊断。
丹麦的模式为人工智能在医疗领域的应用提供了成功的范例,该模式建立了可访问的病人记录和独特的识别号码系统,这使得研究人员能够使用大量的数据集进行研究,从而改善病人的治疗效果,并减轻医疗系统的负担。
除了丹麦,国际平台也在医疗领域引入了类似的技术,使得疾病的预防和治疗更加精细化和个性化,减少了误诊和漏诊的可能性。重大抉择中,需要有专业人士来判断和制衡人工智能给出的答案。
LMR
人工智能在医疗保健领域可能会出现明显的差异。例如皮肤癌检测人工智能系统,在黑人皮肤上的表现可能就会很糟糕,我们要谨慎地将人工智能整合到医疗保健中,针对不同人群实施人工智能解决方案,考虑到现实性和局限性,以确保所有人都能从中受益。
RMV
可穿戴机器人手臂©DAISUKE URIU
JR
面对面交谈讨论的形式从两千多年前的柏拉图时代就开始了,现如今我们还有机会与非人类交谈。所以,最后让我们畅想一下人工智能行业的未来会发生怎样的变化?
我们应该将人工智能作为一种有价值的工具,同时也认识到它的局限性和潜在的偏见,对于利用其力量产生积极影响至关重要。通过批判性思维和对人工智能的细微理解,塑造出一个负责任地利用技术的未来,促进创新,解决全球挑战,并创造一个更公平的社会。
RB
PERFORMANCE_Cyber Elf_© Candy Welz
Mood KSWE23© Victoria Tomaschko / Goethe-Institut
通过积极的行业实践、全面的教育以及社会和监管机构之间的合作努力,我们可以确保人工智能的利用是为了更大的利益,其部署符合道德原则。通过认识到人工智能的局限性,解决偏见,找到透明度的正确平衡点,实施全面的法规和负责任的行业惯例,我们可以为符合道德原则的人工智能驱动的未来铺平道路。
RMV
关键应该放在技术作为支持性工具的作用上,而不是取代人类的专业知识,人工智能在医疗领域的变革潜力是不可否认的,而其负责任的发展对于获得其利益至关重要。
通过认识到人工智能是一种支持性的工具,而不是人类专业知识的替代品,我们可以确保技术和医疗保健专业人士之间的和谐互动。在解决与人工智能算法相关的担忧和偏见方面,透明度和同行评审至关重要,使我们能够建立信任并验证其功效。
当人工智能被视为一种支持和增强人类专业知识的工具而不是替代时,信任度就会自然提高。
LMR
3D打印拇指机器人可以轻松抓住物体,绕过受伤的脊髓或缺失的肌肉组织进行大脑控制©Startup
信任和怀疑应该并存,即使是用心良苦的研究论文也可能包含错误或无意的欺骗。这就需要一种批判的心态和谨慎的方法来确保人工智能技术的可靠性。
在建立对人工智能模型和系统的信任时,需要持怀疑态度,进行批判性评估和道德考虑。通过拥抱透明度,整合负责任的做法,并优先考虑人工智能教育,我们可以培养信任,并自信地驾驭人工智能的复杂地形,确保人工智能仍然是一个有价值的工具,在最大限度地减少潜在风险的同时造福人类。
PvdS
GREEN BAZAAR
芭莎文化创新部
总编辑:沙小荔
出品人:董云燕
监制:徐宁
项目运营:杨帆
文:Peifen Sung
实习编辑:曾庆威
📮产品/项目推荐、撰稿/拍摄合作
微信扫码关注该文公众号作者