更新时间:2023-06-21 18:44:43
封面
版权信息
版权
内容提要
序言
前言
作者简介
英文版审校者简介
致谢
服务与支持
第1章 概率思维
1.1 统计学、模型以及本书采用的方法
1.1.1 与数据打交道
1.1.2 贝叶斯建模
1.2 概率论
1.2.1 解释概率
1.2.2 定义概率
1.3 单参数推断
抛硬币问题
1.4 报告贝叶斯分析结果
1.4.1 模型表示和可视化
1.4.2 总结后验
1.5 后验预测检查
1.6 总结
1.7 练习
第2章 概率编程
2.1 简介
2.2 PyMC3指南
用PyMC3解决抛硬币问题
2.3 总结后验
基于后验的决策
2.4 随处可见的高斯分布
2.4.1 高斯推断
2.4.2 鲁棒推断
2.5 组间比较
2.5.1 Cohen’s d
2.5.2 概率优势
2.5.3 “小费”数据集
2.6 分层模型
2.6.1 收缩
2.6.2 额外的例子
2.7 总结
2.8 练习
第3章 线性回归建模
3.1 一元线性回归
3.1.1 与机器学习的联系
3.1.2 线性回归模型的核心
3.1.3 线性模型与高自相关性
3.1.4 对后验进行解释和可视化
3.1.5 皮尔逊相关系数
3.2 鲁棒线性回归
3.3 分层线性回归
相关性与因果性
3.4 多项式回归
3.4.1 解释多项式回归的系数
3.4.2 多项式回归——终极模型
3.5 多元线性回归
3.5.1 混淆变量和多余变量
3.5.2 多重共线性或相关性太高
3.5.3 隐藏效果变量
3.5.4 增加相互作用
3.5.5 变量的方差
3.6 总结
3.7 练习
第4章 广义线性模型
4.1 简介
4.2 逻辑回归
4.2.1 逻辑回归模型
4.2.2 鸢尾花数据集
4.3 多元逻辑回归
4.3.1 决策边界
4.3.2 模型实现
4.3.3 解释逻辑回归的系数
4.3.4 处理相关变量
4.3.5 处理不平衡分类
4.3.6 softmax回归
4.3.7 判别式模型和生成式模式
4.4 泊松回归
4.4.1 泊松分布
4.4.2 零膨胀泊松模型
4.4.3 泊松回归和ZIP回归
4.5 鲁棒逻辑回归
4.6 GLM模型
4.7 总结
4.8 练习
第5章 模型比较
5.1 后验预测检查
5.2 奥卡姆剃刀原理——简单性和准确性
5.2.1 参数过多会导致过拟合
5.2.2 参数太少会导致欠拟合
5.2.3 简单性与准确性之间的平衡
5.2.4 预测精度度量
5.3 信息准则
5.3.1 对数似然和偏差
5.3.2 赤池信息量准则
5.3.3 广泛适用的信息准则
5.3.4 帕累托平滑重要性采样留一法交叉验证
5.3.5 其他信息准则
5.3.6 使用PyMC3比较模型
5.3.7 模型平均