简介
“社媒”这一系列主要用以梳理“社群媒体分析”这堂课的知识点以及纪录一些课后的思考🤔。
资料伦理
🌰 Case: Automated Health Care App
来源:https://aiethics.princeton.edu/case-studies/case-study-pdfs/
简介:Charlie 是一款智能健康管理的app
- 利用只会手表来监测患者的血糖
- 利用AI演算法,来计算药剂的注射量,以及生活型态的建议
- 并设置论坛(furom)来供病友互相交流,并且提供最新的资讯。
旧版:
⚠️ 面临的问题:
- 虽然大部分使用者对降低血糖都有作用,但是少数族裔,和少部分一些人并没有改善
- 在论坛中出现了同温层现象,并互相攻击
- 有一些人离开了
上述👆问题的分析:
- 问题1:少数族裔没有效果很可能是,他们的资料量太小,没有足够的资料来建立模型,来给这一部分人群提供比较完善的医疗方案。
- 我的一些小困惑 😖
- 差异化的模型? ?
- 所以这种模型要怎么训练? ?
- 是不是只有应用之后才能知道不适合所有人,从而做出差异化的模型? ?
- 前期的数据探索是否能看出一些端倪? ?
- 所以是不是只要数据够多,模型就可以cover这种差异化? ? )
- 我的一些小困惑 😖
- 问题2:人喜欢看符合自己价值观的
解决方案:
- 问题1:
- 收集更多少数族裔的资料
- 问题2:
- 减少病人接触非主流的报导
- 同温层:不按时间次序显示文章和留言;被赞较多的优先
- 问题3:
- 个性化推荐文章,使用(MAB)
新版:
运行结果:基本解决上述的3个问题
⚠️ 但是!一些人产生了担忧:
- 文章遭到公司的过滤,替病友决定了什么是该看的文章(家长式领导Paternalism)
- MAB的推荐系统的文章可能对病友造成伤害
- Charlie演算法运作机制不明,缺乏透明度
团队的反馈:
- 文章的过滤基于的是医学专业的考量
- MAB推荐的文章都是经过认证的
- AI虽有黑箱的问题,但是人类专家得出结论,一般病人也不会询问医生是如何判断的。
资料分析的陷阱
资料分析常常被拿来误导:
- 误导可以带来利益
- 误导的信息传播的特别快
- 人类的同理心可以产生完美的误导
误导产生的面向:
- 人本身:
- 人本身跟偏爱和自己立场一致的文章:很可能并不会看完文章的,判断对错,只是因为立场一致而就进一步传播
- 同温层的产生
- 机器的诱导:
- 演算法为增加用户黏性而一直只推荐用户喜欢的文章:使用户只能看到和自己立场相似的文章,而看不到客观的事实。
- 结果的呈现:
- 修改图表的scale从而达到表达自己想要的结论的目的。
- 相关性常被误导为因果关系
- 观察的偏差:观察角度的不同可能会有完全不一样的结论(如何避免呢???)