Skip to main content
From 16:00 UTC on January 17, 2026, to 20:00 UTC on January 17, 2026, we will perform planned maintenance on the Trailhead, myTrailhead, and Trailblazer Community sites. During the maintenance, these sites will be unavailable, and users won't be able to access them. Please plan your activities around this required maintenance.

了解有道德地使用技术

学习目标

完成本单元后,您将能够:

  • 定义偏见和公平。
  • 确定策略以避免偏见和缺口。
  • 把公司的价值观转化为流程。
  • 描述了解客户以实现合乎道德的设计的重要性。

负责任的技术设计和开发

我们刚刚开始了解新兴技术如何影响社会。随着技术的进步,企业面临着一系列关键考量,从自动化是否会取代工作岗位的问题,到关于社交媒体对发展的影响的猜测等。  

许多行业受到各种标准、协议和规定的约束,目的是确保它们的产品对社会产生正面影响。比如,医生遵守希波克拉底誓言,并且设立了研究评审委员会来确保医德。汽车行业受驾驶法律以及围绕安全带和安全气囊的安全标准约束。更广的范围内,2011 年联合国签署了《工商企业与人权指导原则》,定义了企业和国家负有的保护所有个人享有的权利和自由的责任。

在 Salesforce,我们理解我们对社会承担着更广的责任,并且渴望打造不仅能够促进客户成功,而且能够推动积极的社会变革、造福人类的技术。Salesforce 成立了 Office of Ethical and Humane Use,帮助客户利用我们的技术产生积极的影响,从而在第四次工业革命中开辟出一条道路。这一努力扎根于 Salesforce 的核心价值观(信任、客户成功、创新、平等和可持续性)。

盾牌上印有 Salesforce 核心价值观——信任、客户成功、创新、平等和可持续性

说起技术伦理,问题从来没有如此迫切过——需要我们所有人共同努力寻找解决方案。

偏见或公平是什么意思?

当您创造或使用技术时,尤其涉及到人工智能或自动化的时候,理清偏见和公平性问题很重要。

Salesforce 认为,我们将数字偏见定义为“机器学习过程中的假设不准确可能导致电脑系统中出现系统性和可重复错误,从而违背系统功能的预期,造成不公平结果。”在统计学中,偏见是指系统性地偏离真相或错误。从社会角度来看,Salesforce 将偏见定义为“我们用来快速处理信息和做出决策的自动化心理捷径”,不幸的是,这种捷径有时会导致不平等的结果。

公平的定义是指不夹杂任何私利、成见或偏袒的决定。在现实生活中,要想让一个决定完全公平几乎是不可能的。在 2018 年美国计算机协会主办的“公平、责任和透明”大会上,一个专家组编制了一份包含公平的 21 种定义的清单。如果有这么多途径来思考公平性,您如何分辨人类或机器是否在做出公平的决策? 

三个人在思索平等、公平地切分一个蛋糕的不同方法。

要做出更明智的决策,必须要了解那个决策的影响。对最多人有利的决策仍然排除了一部分人,如果这部分较少的人群经常被忽视,那也是不公平的。您需要扪心自问:有些个人或群体是否受到了某个决策不合理的影响?过去的决策或不准确的数据中系统性偏见是否使某些群体更不可能得到公平或公正的评估?如果回答是肯定的,那么您必须决定是否应该,以及如何进行优化,以确保对所有人是公平的。

营造道德文化

大多数公司不会主动去冒犯或伤害别人。但是如果他们不确立自己的核心价值观,不落实流程来确保公司每个人在工作中都奉行这些价值观,那么他们可能会无意中冒犯或伤害别人。通过制定价值观、流程和激励措施,领导者可以影响他们的企业文化。领导者能够并且应当教学生和员工如何在他们的工作中恪守道德,但是如果企业文化是不健康的,那就好像把一株健康的果树种在一片荒废的果园中。最终,哪怕是健康的果树也会结出坏的苹果。领导者必须奖励有道德的行为,同时抓住并且制止不道德的行为。 

重要的是要记住在这个领域我们所有人都是领导者。您可以通过端到端的方式推出并保持一种道德文化,从而做出积极的改变。 

  1. 组建能够利用多种独特观点的团队。
  2. 把价值观转化为流程。
  3. 了解您的客户。

组建能够利用多种独特观点的团队

研究表明,由拥有各种生活经历和身份的成员组成的团队会更具创造力,工作也会更加勤勉。在各个层级,尤其是高级管理层,有更多女性的组织通常利润更高。欲了解更多,请查看本单元末尾的资源部分。 

十一个人,具有不同的能力、种族、性别和年龄。

我们所创造的一切都代表我们的价值观、经历和偏见。比如,人脸识别系统往往更难识别黑皮肤或棕色皮肤人脸(相对于白皮肤人脸而言)。如果创造这种技术的团队在开发过程中采用了更广泛的面部特征来进行技术测试,他们就更有可能发现并解决这种偏见。 

开发团队应汲取多样的观点、经验和身份,以指导他们的工作。缺乏多样性可能会制造一个回音室,产生带偏见的产品和功能缺口。如果您无法组建能够反映多种独特观点的团队,可以考虑向您的公司和用户所在的各种社区征求意见。

社区意识也是一家公司道德基石的一部分。不能让某一个人全权负责有道德的行为或提倡道德。相反,整个公司都应该重视道德并且有道德意识。员工应该敢于质疑现状,直言不讳,这有助于识别您的企业面临的风险。团队成员应该提出专门针对他们的领域的道德问题,比如: 

  • 产品经理:我们算法中的假阳性或假阴性对业务有何影响?
  • 研究人员:谁受我们的系统影响,如何受影响?它如何被滥用?人们可能会如何破坏这个产品或以意想不到的方式来使用它?使用这个产品的社会背景是什么样的?
  • 设计师:我在这个产品中植入了什么默认或预设?设计的时候我是否考虑了透明和平等?
  • 数据科学家:当我这样来优化我的模型时,对用户有什么含义?
  • 内容创作者:我能否解释系统为什么以用户能够理解的语言作出了某个预测、推荐或决策?
  • 工程师:为了减轻伤害我们可以在系统中植入什么通知、流程、检查或防故障机制?

员工提出专门针对他们的角色的道德问题。

注意这些问题涉及多重角色的视角。让利益相关者和团队成员参与产品开发生命周期的每个阶段,有助于纠正您的系统中系统性偏见的影响。如果您发现自己所在的团队缺少其中任何一个角色,或者您在扮演多个角色,那么您可能需要从多个角度出发思考问题,确保包含每个视角,而那可能涉及寻求外部专家或意见。当员工对得到的答案不满意时,应该有清晰的流程来解决问题,比如评审委员会。我们稍后详细阐述这个问题。 

把价值观转化为流程

几乎每个组织都有一套价值观指导员工的决策。有三种方法把这付诸实践。

  1. 激励机制
  2. 资源
  3. 文档和沟通

激励机制

激励机制因为特定行为或实现特定目标而奖励个人。激励机制应该符合组织的价值观。员工的奖励往往是基于销售额、客户获取以及用户参与。这些衡量标准有时候可能与合乎道德的决策相悖。确保激励措施不会促使员工只是为了获得奖励而从事存在伦理争议的行为。

您还可以在招聘流程中加入有关技术开发伦理的问题。这对新员工设定期望,您正在建设的道德文化对公司来说很重要,有道德的思想和行为将得到奖励。

员工支持 

负责任的组织提供资源来支持员工,赋能员工作出符合公司价值观的决策。这包括员工教育(Trailhead 是一个很好的资源)和评审委员会,以解决难题,确保员工遵守指导原则。 

在 Salesforce,我们有一个数据科学评审委员会,为我们的 AI 模型、训练数据以及使用它们的应用程序提供质量和道德考量方面的反馈意见。 

建设道德文化可以鼓励员工大胆说出他们的道德担忧,同时您可能还需要考虑制定一个清晰、匿名的流程让员工提交担忧。最后,检查列表是很好的资源,可以引发讨论,确保您不会忽视重要的担忧。检查列表尽管一致且容易实施,但很少是穷尽性的,必须清楚、切合实际,才能起作用。由于检查列表使员工能够进行艰难的谈话,它可以帮助您的公司从头开始建设道德文化。 

文档和沟通

记录决策,做到透明和一致。如果某个团队正在道德的十字路口,记录决定了什么以及为什么使未来的团队可以学习那个经验,并且一以贯之地行动而不是随意武断地行动。文档和沟通也让您的员工和利益相关者对您的流程和由此得出的决策有信心。

了解您的客户

毋庸置疑您需要了解所有客户。否则,您可能会设计出无视一部分用户,或者伤害您对他们一无所知的一部分用户的产品。扪心自问,您想当然地假定而没有征求谁的需求和价值观?谁被伤害的风险最大,为什么?是否有坏人会故意用您的产品来造成伤害或者是否有人可能会用它无知、意外地造成伤害?知道这些问题的答案后,您就可以努力解决这些问题。我们建议找一位用户研究人员,以加深对客户的了解。

资源

在 Salesforce 帮助中分享 Trailhead 反馈

我们很想听听您使用 Trailhead 的经验——您现在可以随时从 Salesforce 帮助网站访问新的反馈表单。

了解更多 继续分享反馈