人工智能

Created
Jan 24, 2023 12:56 PM
Tags

人工智能的分类

  1. 静态 AI:通过线下手动训练,或对参数作显示变成,然后将它们用于估算、预测、建议或决策的 AI 方法。
  1. 动态 AI:能够自动在生产过程中定期训练参数的方法,相对于静态 AI。
  1. 自动 AI:能够自动更改基本结构,例如超参数、输入变量等的动态 AI 方法。
  1. 认知 AI:能够自主决策并采用相应行动的方法,即使 对于一些未经受特别训练的事宜。

人工智能的方法和示例

类型
示例
静态 AI
一种可示教历史上出现过的诚信/欺诈支出模式并使用决策树来预测某一笔新交易属于欺诈交易的可能性,同时又作为一种传统模型来实施的防欺诈模型。 其他运用示例: 1. 采用梯度提升机(GBM) 的市场营销响应模型 2. 采用 GBM 的信用风险模型 3. 采用 GBM 的金融交易欺诈筛查 4. 用于预测信货额度利用率的长短期记忆(LSTM)预测模型 5. 基于随机森林的公司实体类型分类
动态 AI
一种起初需要示教历史上出现过的支出模式,之后就能够从最新支出模式中加以学习的防欺诈模型。 其他运用示例: 1. 防欺诈工具(拥有自更新人工神经网络) 2. 用于决策支持的建议系统(神经网络) 3. 基于客户活动的平衡预测 4. 用于客户管理的自适应客户聚类 5. 基于模型的客户交易模式分析

人工智能道德原则

  1. 以人为本
我们相信人比系统更重要。人的治理应贯彻一切相关阶段,以确保基于 A/ML 的决策符合客户的利益、能创造经济价值,并承担系统性的责任。
2. 公平和防止偏见
我们的 AI/ML 活动体现了我们公平对待客户和员工,防止人、数据或算法来源遭受偏见的承诺。
  1. 设计上的隐私和数据权
我们的 A//ML 系统将在设计上与组织的隐私政策以及适用的法律法规保持一致,包括客户对其个人数据的合理控制。
4. 透明度和可解释性
在如何使用 A/ML 系统方面,我们追求透明度;对于 A//ML 解决方案,我们也支持采取可理解性与可解释性原则。
  1. 风险管理和问责制
我们积极依照组织政策和标准来管理风险,并对我们的 A//ML 活动的后果承担责任。
  1. 安全和稳健
在可用性、安全性、完整性、合规性、防范欺诈以及操作弹性上,我们的 A/ML 活动采取与组织其他所有系统相同的标准。
  1. 可演化性
随着 A/ML技术和能力的演化以及知识的积票,我们将不断更新、调整和改进这些原则, 以确保这些原则的主要目的得到进一步提升。

AI/ML 特定风险

  1. 数据风险
  1. 信息技术 IT 风险
  1. 信息安全 IS 风险
  1. 第三方管理 TPM 风险
  1. 法律和监控合规性风险