读完论文,有很多问题没有太理解,以下列出了一小部分但不全,希望您能回答一下
- 论文中提到的上下文蒸馏,请问具体是在哪里体现的呢?通读全文,也没有太找到,可能我对蒸馏的理解和您存在偏差
- Temporal Dependency Encoder看起来好像就是一个带残差的MLP啊,“This enriched information enables our in-context learning to effectively identify variations in spatio-temporal patterns across different regions and time intervals, thereby facilitating precise modeling of temporal correlations.” 这句话为什么成立呀?您可以解释一下吗?
- InfoNCE Loss 看上去好像不太对劲呢?
如果可以的话,您能否再具体解释一下MLP + GCN + 对比学习和标题中的提示微调以及论文中说到的解决分布漂移之间的关系?
读完论文,有很多问题没有太理解,以下列出了一小部分但不全,希望您能回答一下
如果可以的话,您能否再具体解释一下MLP + GCN + 对比学习和标题中的提示微调以及论文中说到的解决分布漂移之间的关系?