Skip to main content
Build the future with Agentforce at TDX in San Francisco or on Salesforce+ on March 5–6. Register now.

了解决策框架和 AI 模型

学习目标

完成本单元后,您将能够:

  • 列出三个决策模型。
  • 解释如何对现实情境应用数据驱动的决策框架
  • 描述三个基本 AI 模型及其应用。
  • 识别数据和 AI 模型中的偏见并确保公平性。

现在让我们一起来了解决策模型、数据驱动的框架以及 AI 模型,以及应对其中所有偏见和公平性的必要性。

决策模型

决策模型和理论有很多。这些框架设计用于帮助组织和个人根据经验证据做出更明智、客观和有效的决策。

有一些主要的模型。

理性决策模型:该模型假设个人通过权衡所有可能的替代方案并选择具有最高效用的替代方案来做出合乎逻辑和一致的决策。理性是这个模型的基石,它寻求做出最佳选择。

有限理性模型:有限理性模型认识到,在现实生活中,决策者往往在有限的信息和认知约束下决策。他们做出“足够好”的决定,而不是寻求最佳选择。

直观决策:直觉决策依赖于直觉和个人经验。通常在需要快速决策或信息不完整时,使用这种决策。

数据驱动的决策框架

数据驱动的决策框架提供了一种结构化的决策方法,使用数据作为主要驱动力。以下是该行业的两个主要决策框架。

工具

它是什么?

决策树

这些图形展示可帮助您可视化和评估决策选择、结果和概率。

普氏矩阵

该决策矩阵通过量化标准并评估其影响来帮助您比较多个备选方案。

决策树

决策树为您提供了一种系统的方法,可以根据一组标准做出选择或决策。决策树提供了一种结构化的方式来评估不同的选项及其潜在结果,帮助您选择最合适的行动方案。决策树由节点和分支组成,其中节点表示决策或选择,分支表示可能的结果或后果。

例如,决策树可以帮助您根据天气状况确定是否玩体育游戏(是或否)。决策树可以告诉您,如果天气晴朗,首先要看湿度,如果湿度高,否,就不玩,但如果湿度低,是,就可以玩。或者如果是阴天,是,可以玩,等等不同的情况。

该框架通常用于商业、金融、医疗保健和机器学习,以对决策过程进行建模,并根据数据和逻辑优化选择。

决策树决定是否玩体育游戏的示例

普氏矩阵

普氏矩阵,也称为普氏方法或决策矩阵,是一种决策工具,用于根据一组标准评估和比较多个备选方案或选项。它为您提供了一种系统的方法,通过量化不同的选项和排名来做出明智的决策。该方法由英国工程师和设计理论家 Stuart Pugh 开发。

普氏矩阵通过结构化地考虑多个因素及其相对重要性来帮助您做出理性决策。下面的示例普氏矩阵显示了基准为 0,与基准相比,备选项为正 (+)、负 (-) 或等于 (0)。将这些比较汇总起来,以对解决方案进行排名和优化。这种方法在工程、产品设计和业务管理等领域是一种有价值的工具。

普氏矩阵示例

这些数据驱动的决策框架使您能够做出客观和基于证据的选择。

在物流和供应链管理中,数据驱动的决策框架可用于优化货物的流动。公司可以使用库存水平、需求预测、运输成本和交货时间等数据来制定最具成本效益的运输路线、存储位置和再订购点的决策。这样可以最大限度地降低成本,减少缺货,并确保产品有效地到达客户手中。

AI 模型简介

现在,我们来了解一下 AI 模型。正如您所了解的,人工智能和机器学习 (AI/ML) 是可以支持您的决策过程的强大工具。

AI 模型的类型

AI 模型主要有三种:监督式学习、无监督式学习和强化学习。

监督式学习模型使用标记的数据集进行训练,这使得模型能够随着时间的推移学习和变得更加准确。例如,用狗和其他东西的图片来训练一个算法,这些图片都由人类标记,机器会自己学习识别狗的照片的方法。监督式机器学习是当今最常用的类型。

无监督式机器学习中,程序在未标记的数据中查找模式。无监督式机器学习可以发现人们没有明确寻找的模式或趋势。例如,无监督式机器学习课程大纲可以查看在线销售数据并识别不同类型的购买客户。

强化机器学习通过建立奖励制度,训练机器在试错过程中采取最佳行动。通过告诉机器何时做出正确的决定,强化学习可以训练模型玩游戏,或训练自动驾驶汽车驾驶,这有助于它随着时间的推移学习应该采取什么行动。

生成式 AI 模型使用神经网络来识别现有数据中的模式和结构,以生成新的原创内容。生成式 AI 的突破之一是它能够利用不同的学习方法,包括用于训练的无监督式或半监督式学习。生成式 AI 使用这三种技术。

单击用例选项卡查看不同行业在决策过程中如何使用这些 AI 模型。(我们在下一单元详细了解这些用例。)

AI 中的偏见和公平性

将人工智能整合到各个领域的决策过程中已在效率和准确性方面取得了前所未有的进步。但随着人工智能日益成为我们生活中不可或缺的一部分,我们需要解决人工智能系统中的偏见和公平性问题。确保公平性和维护道德准则的重要性怎么强调都不为过。当人工智能系统没有得到负责任的开发和使用时,就会出现偏见、歧视和道德困境。

识别数据和 AI 模型中的偏见并确保公平性

偏见是指存在可能导致歧视性结果的系统性和不公平的区别或偏好。识别偏见是解决和减轻其影响的第一步,一旦识别出偏见,开发人员、数据科学家和业务用户就可以采取纠正措施。单击每个选项卡,了解组织可以采取哪些措施来识别偏见并促进数据和 AI 模型的公平性。

在本单元中,您探索了各种决策模型、数据驱动的框架和 AI 模型,以及减轻偏见和促进公平性的道德要求。在下一单元中,我们将了解 AI 在不同场景中的实际应用。

资源

在 Salesforce 帮助中分享 Trailhead 反馈

我们很想听听您使用 Trailhead 的经验——您现在可以随时从 Salesforce 帮助网站访问新的反馈表单。

了解更多 继续分享反馈