围绕人工智能的对话已经达到了一个可预见的僵局。用户表示他们不信任人工智能。公司承诺透明度。监管机构威胁要干预。然而核心问题依然存在:人们无法信任他们不理解的东西,而大多数人工智能系统仍然以用户感到陌生的方式进行沟通。
信任危机与其说是关于信任本身,不如说是关于翻译。当贷款申请被拒绝,求职者被筛选出局,或学生的目的陈述因人工智能抄袭而被标记时,系统很少以人类能够理解的方式解释其推理过程。用户只能猜测,感到沮丧和怀疑。
这项技术功能强大,但它不展示其工作原理;没有可解释性。
这种翻译差距带来了经济和社会后果。2023年毕马威全球研究发现,61%的人对信任人工智能系统持谨慎态度,只有一半人认为其益处大于风险。这种不信任通过延迟人工智能采用,使企业损失了数十亿未实现的生产力。
但问题不仅限于商业成果。在许多领域,人工智能系统现在塑造着对个人有重大影响的决策。当这些系统无法解释自己时,它们就成为了不负责任的把关者。
教育是一个明显的例子。算法评估来自学术表现、财务能力、位置到职业目标的数千个数据点,并产生影响学生未来的建议。
类似:「人工智能法官」能否成为解决尼日利亚司法系统问题的方案?
然而学生很少知道为什么会出现某些选项,或系统如何解释他们的信息。类似的不透明性出现在医疗保健、招聘、金融和公共服务领域。
认为人工智能"太复杂而无法解释"的论点忽略了重点。复杂性不是障碍;沟通才是。其他领域每天都在为非专业人士翻译复杂信息。挑战不是使底层系统更简单;而是以用户能够理解的方式表达其逻辑。
虽然技术可解释性研究继续进步,它提供了追踪模型行为的方法。然而,如果解释需要核心领域知识背景,这些方法意义不大。解决翻译问题需要的不仅仅是暴露内部逻辑;它需要产生可理解、相关且可用的解释。
解决翻译差距将实现更快速、更自信的采用。人们使用他们理解的工具。当用户理解系统为何以某种方式运行时,他们更有可能接受并有效使用其建议。
展望未来,开发者不仅要问"这个有用吗?"还要问"用户能理解它为什么有用吗?"部署人工智能的组织应该在技术优化的同时投资于沟通设计。
图片来源:Unsplash
监管机构应要求针对用户的解释,而不仅仅是为审计员提供文档。清晰的解释支持更好的决策、更多的参与和更公平的结果。
翻译必须成为人工智能系统的核心功能。这意味着设计能以简明语言沟通的工具,用真实用户测试解释,并暂缓部署无法清晰阐述其推理的系统。影响人们生活的技术必须能够解释自己。任何不足之处都不是信任问题;而是翻译失败。
Mathilda Oladimeji是路易斯安那州立大学信息系统的博士研究员,她研究人工智能可解释性和用户信任。
她之前担任Intake Education在非洲的区域营销经理,管理超过100所大学的数字营销活动。


