带你读《2022技术人的百宝黑皮书》——倾向得分匹配(PSM)的原理以及应用(1)

简介: 带你读《2022技术人的百宝黑皮书》——倾向得分匹配(PSM)的原理以及应用(1)

作者:八卜

出品:大淘宝技术


该文章主要介绍倾向得分匹配(PSM, Propensity Score Matching)方法的原理以及实现。这是一种理论稍微复杂、但实现较为容易的分析方法,适合非算法同学的使用。可用于(基于观察数据的)AB实验、增量模型搭建等领域。


文章主要分为四部分:前置知识(因果推断)介绍、倾向得分计算与匹配与匹配质量检验、匹配示例与增量计算还有一些补充的小知识点。对因果推断有简单了解的同学可以跳过第一部分,直接从第二节开始阅读。


前置知识介绍


对因果推断概念有所了解或想直接学习PSM的同学可跳过这一节。


概念一:干预效果 Treatment Effect


干预效果(Treatment Effect):干预下的潜在结果减去未干预时的潜在结果(Rubin框架),即:


image.png


其中 image.png表示潜在结果,1和0代表是否受到干预。


举个例子:我们想知道我养狗给我提升了多少幸福度,理想情况下就是用我养狗时的幸福度减去我不养狗时的幸福度。


概念二:ATT Average Treatment Effect on the Treated


相较于个人的干预效果,我们更希望了解人群整体的干预效果,毕竟我们通常用策略干预的是一个人群。


应用PSM,我们通常希望计算得到被干预的用户的平均干预效果,即ATT(average treatment effect on the treated),即


image.png


其中变量image.png 代表是否收到干预。


可以看到 image.png代表被干预的用户假如不被干预的情况下的潜在结果,是一个无法观测的数值。倘若可以建立AB测试,我们可以利用对照组得到该结果,在无法进行AB测试的情况(例如image.png 是一个主动的行为)我们可以

通过PSM拟合一个虚拟的对照组进行计算。




带你读《2022技术人的百宝黑皮书》——倾向得分匹配(PSM)的原理以及应用(2) https://developer.aliyun.com/article/1243259?groupCode=taobaotech

相关文章
|
C语言
C语言之十进制转化为十六进制
C语言之十进制转化为十六进制
383 0
|
数据采集 自然语言处理 搜索推荐
图文详解 DFS 和 BFS | 算法必看系列知识二十四
深度优先遍历(Depth First Search, 简称 DFS) 与广度优先遍历(Breath First Search)是图论中两种非常重要的算法,生产上广泛用于拓扑排序,寻路(走迷宫),搜索引擎,爬虫等,也频繁出现在高频面试题中。
37573 6
图文详解 DFS 和 BFS | 算法必看系列知识二十四
|
7月前
|
机器学习/深度学习 存储 自然语言处理
语义检索翻车?可能是你的Embedding模型没选对!
本文深入解析Embedding模型在RAG系统中的核心作用,涵盖其原理、类型、选型策略及实战建议。选对模型可显著提升语义检索准确性与效率,避免成本浪费。干货满满,值得收藏!
3022 52
|
机器学习/深度学习 人工智能 机器人
计算机视觉技术介绍
【10月更文挑战第14天】 计算机视觉技术介绍
|
缓存 安全 Java
《从头开始学java,一天一个知识点》之:输入与输出:Scanner与System类
你是否也经历过这些崩溃瞬间?三天教程连`i++`和`++i`都说不清,面试时`a==b`与`equals()`区别大脑空白,代码总是莫名报NPE。这个系列就是为你打造的Java「速效救心丸」!每天1分钟,地铁通勤、午休间隙即可学习。直击高频考点和实际开发中的“坑位”,拒绝冗长概念,每篇都有可运行代码示例。涵盖输入输出基础、猜数字游戏、企业编码规范、性能优化技巧、隐藏技能等。助你快速掌握Java核心知识,提升编程能力。点赞、收藏、转发,助力更多小伙伴一起成长!
250 19
anaconda下载安装,镜像源配置修改及虚拟环境的创建
这篇文章介绍了Anaconda的下载安装过程,包括Anaconda的简介、安装步骤、配置修改、创建虚拟环境以及一些常用命令的使用方法。文章还提供了如何修改conda的镜像源为国内镜像源以加速下载的步骤。
anaconda下载安装,镜像源配置修改及虚拟环境的创建
|
机器学习/深度学习 人工智能 自然语言处理
【强化学习】强化学习的概述及应用,附带代码示例
强化学习(Reinforcement Learning, RL)是机器学习中的一种重要范式,它通过让智能体(agent)在环境中采取行动并根据所获得的奖励(reward)来学习最优的策略(policy)。简而言之,强化学习的目标是让智能体学会在特定环境下做出决策,以最大化累积奖励。这种学习方式模拟了生物体如何在环境给予的正反馈(奖励)和负反馈(惩罚)中学习行为的过程。
3590 4
|
机器学习/深度学习 人工智能 自然语言处理
大语言模型的主流应用领域
大语言模型在多个领域都发挥着重要作用,从新闻报道到金融分析,从智能家居到在线教育、自然语言处理、智能客服、情感分析,它们都在推动技术进步并改善人们的生活质量。
1224 1
|
算法 数据安全/隐私保护 异构计算
基于FPGA的AES加密解密vivado仿真,verilog开发,包含testbench
基于FPGA的AES加密解密vivado仿真,verilog开发,包含testbench
668 0
基于FPGA的AES加密解密vivado仿真,verilog开发,包含testbench
|
机器学习/深度学习 SQL 算法
倾向得分匹配(PSM)的原理以及应用
倾向得分匹配(PSM)的原理以及应用
5939 0
倾向得分匹配(PSM)的原理以及应用

热门文章

最新文章