简介

“社媒”这一系列主要用以梳理“社群媒体分析”这堂课的知识点以及纪录一些课后的思考🤔。

资料伦理

🌰 Case: Automated Health Care App

来源:https://aiethics.princeton.edu/case-studies/case-study-pdfs/

简介:Charlie 是一款智能健康管理的app

  • 利用只会手表来监测患者的血糖
  • 利用AI演算法,来计算药剂的注射量,以及生活型态的建议
  • 并设置论坛(furom)来供病友互相交流,并且提供最新的资讯。

旧版:

⚠️ 面临的问题:

  • 虽然大部分使用者对降低血糖都有作用,但是少数族裔,和少部分一些人并没有改善
  • 在论坛中出现了同温层现象,并互相攻击
  • 有一些人离开了

上述👆问题的分析:

  • 问题1:少数族裔没有效果很可能是,他们的资料量太小,没有足够的资料来建立模型,来给这一部分人群提供比较完善的医疗方案。
    • 我的一些小困惑 😖
      • 差异化的模型? ?
      • 所以这种模型要怎么训练? ?
      • 是不是只有应用之后才能知道不适合所有人,从而做出差异化的模型? ?
      • 前期的数据探索是否能看出一些端倪? ?
      • 所以是不是只要数据够多,模型就可以cover这种差异化? ? )
  • 问题2:人喜欢看符合自己价值观的

解决方案:

  • 问题1:
    • 收集更多少数族裔的资料
  • 问题2:
    • 减少病人接触非主流的报导
    • 同温层:不按时间次序显示文章和留言;被赞较多的优先
  • 问题3:
    • 个性化推荐文章,使用(MAB)

新版:

运行结果:基本解决上述的3个问题

⚠️ 但是!一些人产生了担忧:

  • 文章遭到公司的过滤,替病友决定了什么是该看的文章(家长式领导Paternalism)
  • MAB的推荐系统的文章可能对病友造成伤害
  • Charlie演算法运作机制不明,缺乏透明度

团队的反馈:

  • 文章的过滤基于的是医学专业的考量
  • MAB推荐的文章都是经过认证的
  • AI虽有黑箱的问题,但是人类专家得出结论,一般病人也不会询问医生是如何判断的。

资料分析的陷阱

资料分析常常被拿来误导:

  • 误导可以带来利益
  • 误导的信息传播的特别快
  • 人类的同理心可以产生完美的误导

误导产生的面向:

  • 人本身:
    • 人本身跟偏爱和自己立场一致的文章:很可能并不会看完文章的,判断对错,只是因为立场一致而就进一步传播
    • 同温层的产生
  • 机器的诱导:
    • 演算法为增加用户黏性而一直只推荐用户喜欢的文章:使用户只能看到和自己立场相似的文章,而看不到客观的事实。
  • 结果的呈现:
    • 修改图表的scale从而达到表达自己想要的结论的目的。
    • 相关性常被误导为因果关系
    • 观察的偏差:观察角度的不同可能会有完全不一样的结论(如何避免呢???)