decision_tree
决策论 Decision Theory
-
决策树 Decision Tree (不是 ai 的)
-
多种数据选择标准
-
概率未知类
-
maxmin criterion
- 找到最小值里面最大的,也就是最保险 (conservative)的做法
-
minimax regret criterion
- opportunity loss: 机会损失,选择了 A 就不能选择 B
- 计算方法:找到该条件 (列) 的最大值, 用其减去该列各行内容获得新的矩阵,这个矩阵就是 regret 矩阵
- 目标应该是找 regret 矩阵里面每个选择最大的项进行比较找到最小值
- 也就是找到机会成本相对小的矩阵
-
maxmax criterion
- 找到所有最大的 ( optimistic )
-
Hurwicz criterion
- 人工给定一个概率 , 然后期望为
-
Laplace criterion
- 默认 概率为等分的,也就是在每项期望除以state 可能性 n
-
-
概率已知类
-
期望 EMV / Expected Monetary Value
- 也就是
- 可以看作是包含各个 state 可能性的向量
-
最大调查价值 EVPI
-
获得准确信息会带来新的价值,但是我们要将这个增加的价值和获得信息的成本进行比较
-
方便起见,我们一般比较 一般信息最大期望 和 有精确信息最大期望 EVwPI
- 一般信息最大期望 找到正常期望算法的几种 decision 的最大值
- 有精确信息最大期望 每个 state 的最大量 乘以 其概率 之后求和
- 二者的差 就是 EVPI
-
-
-
-
决策树符号
- 正方形表示选择节点
- 圆形表示不确定事件节点
-
决策树整体期望计算 – 反向传播方法
-
对于不确定事件节点,我们可以采取递归的方式计算其期望
-
对于决策节点我们无法计算其期望值大小,只能获得其各个选择的期望
- 找到最大的就是这个选择的理想期望,保留这一项,节点可以继续向前传播
-
在决策节点上下端的概率事件相互独立
-
每一个不确定事件节点各项选择具有归一性
-
-
概率向量的修正
- 如果获取信息是存在精确概率的,那么我们可以修改向量
- 可能会需要更改叶节点附近的概率结构
- 注意预估和事实是两层概率,预估是靠近根节点的,事实是叶子节点的,叶子节点概率表述为
-
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.
