TD Learning model simulation

Through temporal difference (TD) learning, an agent learns from future rewards and backpropagates prediction errors by updating value estimates (continually updating beliefs about future rewards as it approaches the future). It is a core concept of model-free reinforcement learning.

缺失值的处理

缺失值处理有时候甚至比机器学习模型本身更重要,因为数据质量决定了预测精度上限,而模型只是去逼近这个上限。但是Missing Data Imputation是个很大的问题,具体情况具体分析,很难一概而论。

这里涉及行业背景;特征间的关系;数据缺失的原因(随机缺失;非随机缺失;完全随机缺失,即只有一部分是可以通过统计方法处理的,另一些只能靠重新采集数据);缺失值处理方法(少的话直接删掉,或者简单填充,连续数用均值,离散数用众数,也可以建模用统计或机器学习方法填充,也可以不用管,有的模型如XGBoost会自动处理缺失值,对流数据处理方法又有不同);还有其他诸多因素。

社会科学研究中的因果推断

相关性不能说明因果。几乎完全依赖于观察,很少做对照实验的社会科学,又怎么度量因果呢?关键在处理混杂因素(Confounder)。这里稍作整理,粗略梳理了一下社会科学中因果推断(Causal Inference)的常用方法,再附上一些实例: