Measure Zero


  • About

  • Quotes

  • Notes

  • Sitemap

  • Search

孟加拉国口罩试验: 效应量显著地比统计显著性更重要

2022-03-27 | ~ | Statistics

话题很简单, 也简单地翻译一下. 这是一系列的文章, 我进行了一些编排也额外加了小标题.

首先是故事的起始

  • Ben Recht. (2021, Sep 13). Effect size is significantly more important than statistical significance. argmin blog.

论文概述

在孟加拉国进行的一项旨在测试戴口罩对减少新冠病毒传播的效能 (efficacy) 的大规模群组随机对照试验 (cluster-randomized controlled trial) 公布了其初步结果, 新冠专家们已经激动地议论纷纷了. 关于这份报告的吸睛评论甚多, 大多数人把这项研究作为应该戴口罩的证据. 但是在读完 94 页的报告后, 我得出了不同的结论. 我担心由于统计学上的模糊性, 这篇报告根本不能推断出什么东西.

Read more »

深度学习吐槽杂录

2022-03-25 | ~ 2022-08-06 | Machine Learning

都是老生常谈的问题. 吐槽外还包含哪些事情有意义. 主要内容看原文链接.

Read more »

概率图模型基本概念

2022-03-18 | ~ | Statistics

只涉及概念和记号, 不涉及算法.

Directed graphs are useful for expressing causal relationships between random variables, whereas undirected graphs are better suited to expressing soft constraints between random variables. For the purposes of solving inference problems, it is often convenient to convert both directed and undirected graphs into a different representation called a factor graph.

Read more »

到达时间预测两则: Uber 和美团

2022-03-03 | ~ | Machine Learning

Uber: DeepETA (Transformer)

参考

  • Xinyu Hu, Olcay Cirit, Tanmay Binaykiya, and Ramit Hora. (2022, Feb 10). DeepETA: How Uber Predicts Arrival Times Using Deep Learning. Uber Engineering.

预测到达时间 (ETA, estimated time of arrival) 显然对 Uber 很重要 (最高 QPS 的服务). 传统方法把道路网分割为小路段, 每个路段表示为图中的带权边, 找出图中最短路径即得 ETA. 为考虑别的因素, 用机器学习预测 “真实到达时间和传统方法得到的 ETA” 的差值 (residual).

之前用 XGB ensemble. Eventually, we reached a point where increasing the dataset and model size using XGBoost became untenable. (为啥不行?) We decided to explore deep learning because of the relative ease of scaling to large datasets using data-parallel SGD. (树模型应该也有并行算法?)

目标有三个

  • 时延: 毫秒级
  • 准确度: MAE 要胜过 XGB
  • 通用性: 用于 Uber 所有业务线
Read more »

SimCSE: simple contrastive sentence embedding

2022-02-25 | ~ 2022-07-12 | Machine Learning

参考

  • Gao, T., Yao, X., & Chen, D. (2021). Simcse: Simple contrastive learning of sentence embeddings. arXiv preprint arXiv:2104.08821.
  • Wang, T., & Isola, P. (2020, November). Understanding contrastive representation learning through alignment and uniformity on the hypersphere. In International Conference on Machine Learning (pp. 9929-9939). PMLR.
Read more »

《下一代书店》笔记

2022-02-16 | ~ | Reading

赵慧. (2018). 下一代书店. 东方出版社.

上一代书店什么样?

以巴诺书店 (Barnes & Noble) 为例,

  • 选址: 占据好位置.
  • 库存和内部陈设足够丰富: 分类书架, 畅销书和推荐书的专门摆放位, 热门 IP 周边等.
  • 不少非书籍类商品: 旗下电子书, 文创等.
  • 名号大 (美国最大连锁书店), 与星巴克独家合作, 还经常举办活动.

唯一的问题是, 越来越少的消费者在这里买书. 书架或结账的前台很少有人, 客人都在儿童教育图书和星巴克咖啡附近.

Read more »

吞食润滑剂是否安全?

2022-02-07 | ~ | Miscellanea

吞食润滑剂是否安全?

  • 原文: Is Lube Safe to Swallow?
  • 原作者: webPOISONCONTROL, a project under the auspices of the National Capital Poison Center in Washington, DC.

参考文献见原文末尾 references

The Bottom Line

人体润滑剂种类繁多, 但只要正确使用, 一般都是安全的. 最常见的不良反应是刺激性 (irritation), 而中毒的可能性不大, 取决于具体的有效成分, 有效成分的浓度, 接触量的大小和接触途径. 为防止不良反应, 请遵循制造商提供的使用指南.

Read more »

逻辑回归复习: 为什么不用 OLS

2022-02-06 | ~ | Machine Learning

把 logisitic 翻译成逻辑并不恰当, 但就先这么用了.

A quick go through

有很多路径可以得到逻辑回归, 最直接地, 它是广义线性模型, 假设 log odds 可以线性表示 (从而决策边界是线性的), 即

\[\log \frac{\mathbb P (Y = 1 \mid X)}{\mathbb P (Y = 0 \mid X)} = \beta'X,\]

其中 $Y \in \{0, 1\}$, 随机向量 $X = (1, X_2, \dots, X_{p+1})’$, 参数 $\beta = (\beta_1, \dots, \beta_{p+1})’$. 用极大似然估计参数, 用 Newton 法计算优化问题. 类似地容易推广到 softmax 形式.

Motivation 我认为可以这样理解: (1) 决策边界是线性的, 于是有右边项 $\beta’X$; (2) 两个概率之比大于某个阈值则预测为其中一个, 而由于概率非负, 所以最便利的让 odds 非负的办法是写为 $\exp(\beta’X)$, 或者其他任何单调变化都可以. 最后两个概率之和为 1 天然成立.

周志华西瓜书上把动机说为用 sigmoid 逼近阶梯函数, 虽然 sigmoid 可以, 但并不必要.

Read more »

Java 初体验: 线性回归系数的检验

2022-01-31 | ~ | Language

翻阅了 官方 tutorial.

与 Python 比较

  • new 相当于在 Python 中显式地调用 __init__ 方法.
  • import 好像没有 Python 灵活, 比如 a.b.c, 只能导入 fully qualified name (一个具体的类) 或者一个库下所有的类, 而不能像 Python 一样 from a import b 然后再用 b.c.
  • 没有默认参数 (可以用函数重载实现), 没有位置参数 (传参感觉不方便读 raw text?).
  • 方法命名习惯用动词开头, camelCase.
  • “only public methods are allowed to be called on class instance.” Why subclass in another package cannot access a protected method?
Read more »

LightGBM

2022-01-22 | ~ | Machine Learning

主论文

  • Ke, G., Meng, Q., Finley, T., Wang, T., Chen, W., Ma, W., … & Liu, T. Y. (2017). Lightgbm: A highly efficient gradient boosting decision tree. Advances in neural information processing systems, 30, 3146-3154.

LGB 的 light 指它比之前的 GBDT 实现 (比如 XGB) 更快. 核心是加速 GBDT 最耗时的求特征分裂点的部分 (时间复杂度 $O(\#\text{samples}\times\#\text{features})$ 或 histogram-based 的 $O(\#\text{bins}\times\#\text{features})$), 提出 Gradient-based One-Side Sampling (GOSS) 和 Exclusive Feature Bundling (EFB). 其中前者减少需要考虑的样本数 (主要考虑梯度大的样本), 后者压缩特征数, 从而实现加速. 结果除了速度, 精度也往往有提升.

Read more »
1 … 7 8 9 … 18
Shiina

Shiina

知乎 豆瓣 bangumi Instagram Weibo
Creative Commons
RSS
© 2019 - 2025   Shiina   CC BY-NC-ND 4.0
RSS  
Powered by Jekyll
 
Theme NexT.Mist