简介 HiTIN: Hierarchy-aware Tree Isomorphism Network forHierarchical Text Classification
Zhu, H., Zhang, C., Huang, J., Wu, J., & Xu, K. (2023). HiTIN: Hierarchy-aware Tree Isomorphism Network for Hierarchical Text Classification. arXiv preprint arXiv:2305.15182.
- (左上两个图) 先把原始的类别层级树结构转换成新的树结构 coding tree (作者自创概念).
- 获得文本表示之后 (上图右下 $H$), 转换成 coding tree 叶结点的 embedding (上图 $X_G$, 维度为 (叶结点数, 叶结点 embedding size)).
- (第一行第三个图) 然后用常规的 GNN, 在 coding tree 上, 从底向上, 递归地根据子结点的 embedding 获得结点的 embedding (子结点 embedding 先求和再 MLP). 最后把每一层的结点 embedding 做 pooling (上图右上 $H_T$), 拼接起来, 经过线性层得到最终 logits (标准的多标签分类).
主要创新点是上述第一步. 论文结果中, 相比其他针对层次分类的网络, 本网络参数少而且效果好很多.
重写的代码见 这里.
GPT 微调指南要点
Radical Red 4.0 Hardcore Nuzlocke
Starter 选择敲音猴, 因为可以帮助打前期道馆. Nuzlocke 前期资源太少了, 还是希望平稳过度. 没有研究 AI 机制, 那样感觉 overkill 了, 大概也需要花更多时间.
目前只打了前两个道馆, 前期可用生物很少, 选出阵容还是比较简单的 (虽然还是要先计算好久). Dustox 第一眼觉得是垃圾玩意儿, 结果好几次可以完封对面一两个人 (而且毒系不会中毒, 特性不吃 hax).
神经网络可解释性几则, 以 TrustAI 为例
什么是可解释性
可解释性大致想法是理解模型为什么给出当前的预测结果. 但至少我目前没有看到可靠清晰的定义和广泛接受的 benchmark, 故不过多展开. 可以参考
- 要研究深度学习的可解释性, 应从哪几个方面着手? 李 rumor 的回答
- 深度学习的可解释性方向的研究是不是巨坑? ninghaoo 的回答, Akiko 的回答
- 神经网络的可解释性是我们的错觉吗
Side note: 有些地方还会区分 interpretability 和 explainability, 我觉得没什么实际意义.
万智牌轮抽简要
基本准备: 了解卡池, 一包牌的稀有度分布. 一般除了炸弹外, 要先抓杀.
常见曲线
- Brian McCormick. (2023). Guide: How to Curve the Perfect Magic: the Gathering Draft Deck. Epic Stream.
信号 (Signals)
很简单.
- 上家传的牌里有某个颜色的强牌, 说明很可能上家不打这个颜色, 这个颜色称为开放 (open), 可以考虑抓.
- 上家传的牌里某个颜色没好牌, 说明上家很可能在打这个颜色, 可以考虑换色.
- 自己抓的时候也要考虑留下的牌会给下家传达什么信号.
沾色 (Splashing)
- David Royale. (2021). The Ultimate Guide to Splashing in Draft and Sealed (Examples). Draftsim.
数据: 17lands
17lands 名字来源于 17 地是限制赛最常见的配置.
Stockfish NNUE 的网络简介
As of August 6, the efficiently updatable neural network (NNUE) evaluation has landed in the Stockfish repo!
Both the NNUE and the classical evaluations are available, and can be used to assign a value to a position that is later used in alpha-beta (PVS) search to find the best move. The classical evaluation computes this value as a function of various chess concepts, handcrafted by experts, tested and tuned using fishtest. The NNUE evaluation computes this value with a neural network based on basic inputs. The network is optimized and trained on the evaluations of millions of positions at moderate search depth.
The NNUE evaluation was first introduced in shogi, and ported to Stockfish afterward. It can be evaluated efficiently on CPUs, and exploits the fact that only parts of the neural network need to be updated after a typical chess move.
Introducing NNUE Evaluation 写得非常简明, 回答了很多重要问题.
读文章: InstructUIE 和 Flan collection
随便记两篇文章.
InstructUIE
Wang, X., Zhou, W., Zu, C., Xia, H., Chen, T., Zhang, Y., … & Du, C. (2023). InstructUIE: Multi-task Instruction Tuning for Unified Information Extraction. arXiv preprint arXiv:2304.08085.
和之前生成式 UIE 方法差不多, 把不同抽取任务写成比较统一的格式, 再 seq2seq. 现在生成模型换成了更大的 LLM, 所以低资源下更好; 输入输出格式也换了. 宣称的结果是和有监督的 BERT 相仿, zero-shot 上显著超越 GPT-3.5.
ChatDoc 系列简要
ChatDoc 系列有很多实现, 典型流程如下:
- 解析文档获得文本, 将文本切成小块, 存储各文本块的 embedding 作为索引
- 获得用户 query 的 embedding, 从文本块 embedding 索引中召回 (kNN) 相关文本块
- 将 query 和召回的文本块组装成 prompt 调用 LLM 获得答案
下面是一些开源项目及其实现方式区别
Stanford Alpaca 简要
衍生项目
- alpaca-lora
- Chinese-alpaca-lora
- japanese-alpaca-lora
- cabrita 葡萄牙语
- ymcui/Chinese-LLaMA-Alpaca 额外的中文词表和预训练
- ydli-ai/Chinese-ChatLLaMA 也有预训练