主要参考
- Mccloud, S. (2015). 理解漫画: 解析漫画艺术的奥秘 (第三版) (万旻, 译). 人民邮电出版社.
原书出版于 1993 年. 有现成的详细内容 摘录.
难得下一次棋, 水平没啥进步. 默认是五林上的对局.
最常见的是前三打: 一打偏黑, 二打平衡略偏白, 三打白小优 (结论出自 2021/9/13 漱星阁的索索夫规则开局指南). 分支太多了, 只看前几手.

参考 KataGo 和
棋谱的记号完全不明白.
由于历史遗留原因, 第一篇 Python 杂录 放在了 Language 类别下. 第二篇 Python 杂录更偏重 best practices.
模型压缩, 用小模型向大模型学习. 神经网络最后一层通常将 logits $z_i$ 经过 softmax 函数转化为类别概率预测 $q_i$ 输出,
\[q_i = \frac{\exp(z_i/T)}{\sum_j \exp(z_j/T)},\]其中 $T=1$. 这种概率预测称为 soft target/label (相对于 hard target, 即直接预测一个类别, 而不给与概率).
主要参考
凸优化最有名 (?) 且十分易读的教材, 附录有一些线性代数的回顾. 如果不打算全读, 只读每章开头的小节可以很快地理清脉络.
COLING 2020 的文章
讲调包. 主问题是个凸二次规划, 找包调的时候顺便调研了 SciPy 处理一般带约束优化问题的不同算法的适用场景 (官方文档里并没有写得很明白).
An optimization problem with a quadratic objective function and linear constraints is called a quadratic program (QP). Consider the following (convex) QP,
\[\begin{align*} \min_\beta & \quad \Vert Y - X\beta \Vert_2^2, \\ \text{subject to} & \quad \boldsymbol{1}_p'\beta = 1, \\ & \quad \beta \succeq 0, \end{align*}\]with