人工智能(AI)解决方案正面临越来越多的审查,因为它们在带来便利的同时,也存在着很多消极影响。更具体地说,AI倾向于暴露和加剧现有的社会偏见和不平等。因此,随着AI的普及,伦理讨论成为重点。
与道德相关的话题是信任。道德是我们做决定和采取行动的指导原则。这些行为准则反映了什么是正确和公平的核心信念。另一方面,信任反映了我们相信另一个人或公司是否可靠、正直,并且会按照我们期望的方式行事。
道德和信任是相互独立的,也是相辅相成的。
那么,符合道德的AI解决方案天生就值得信任吗?
当然,不道德的制度会产生不信任。然而,道德体系并不一定是绝对可信的。更复杂的是,不信任一个系统并不意味着它不会被使用。
支撑人工智能解决方案的功能——机器学习、深度学习、计算机视觉和自然语言处理——与是否道德、值得信任是无关的,重要的是它们的应用环境。
例如,使用OpenAI最近发布的GPT-3文本生成器,利用AI用来撰写社会评论或食谱,人工智能算法产生宣传效应引发了担忧。比如一个人工智能专家可以被用以传播虚假信息,或者影响人类读者的观点,很多人通常没有关注内容来源,这种情况既不道德,也不值得信任。
另一方面,如果一个厨师直接采用人工智能生成的食谱去做菜,而没有关注机器生成的食谱所涉及的道德问题。在这种情况下,信任需要经过验证。
几年前,国外调查公司SAS让调查参与者评估他们在从医疗保健到零售等各种应用中使用人工智能的舒适度。但并未提供关于人工智能算法将如何训练或预期如何执行的信息,等等。有趣的是,他们更信任人工智能来执行机器人手术,而不是人工智能来检查他们的信用。最初的结果似乎与直觉相悖,毕竟手术是生死攸关的事情。
然而,影响信任的不仅是提议的应用程序,还有感知到的意图。在医学应用中,有德和不可信的。但是,一个完全没有偏见的应用,公平地分配不利的信贷条款,也会招致怀疑。
类似地,用于确定非易腐库存处置的人工智能算法也不太可能敲响任何道德警钟。但是商店经理会遵从算法的建议吗?这个问题的答案在于系统的结果与人类的目标有多接近。当人工智能应用程序建议的一个行为(例如,扔掉库存)与员工的激励机制(例如,最大化销售——即使是打折)不一致时,会发生什么?在这种情况下,信任需要的不仅仅是合乎道德的人工智能,还需要调整经理的薪酬计划。
最终,伦理可以决定一个给定的人工智能解决方案能否获得成功。信任将决定它的采用和实现价值。
想要采用人工智能的组织有什么风险呢?根据研究机构Capgemini 2019年的一项研究,75%的消费者、员工和公民希望在人工智能提供的服务中增加透明度,并希望了解人工智能是否公平对待他们(73%)。他们会分享积极的体验(61%),会更忠诚(59%),会从他们信任的公司那里购买更多产品(55%),他们相信这些公司会以道德和公平的方式运营人工智能。
另一方面,34%的人会停止与他们认为不值得信任的公司互动。再加上2020年5月的一项研究,不到三分之一(30%)的受访者对企业使用人工智能与他们互动感到放心。领导者必须打造值得信赖和信任的人工智能系统和企业,而不是仅仅是满足道德层面的需求。
一家成功的公司将需要一个策略来实现这两者。
文章来源于网络,如有侵权请联系删除。