Skip to content

NLPInBLCU/CHED2024

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

75 Commits
 
 
 
 
 
 
 
 

Repository files navigation

CCL2024-Eval 古文历史事件类型抽取评测任务(CHED2024)

  • 主办单位:北京语言大学-信息科学学院-语言文化计算研究室
  • 组织者:邵艳秋,李炜
  • 负责人及联系方式:冯振冰blcu_lcclab@163.com
  • 联系人及联系方式:冯振冰blcu_lcclab@163.com

更新

2024/02/14:请您点击报名链接 进行报名。

2024/03/05:各任务的训练集、验证集已发布,详见 datasets 文件仓。

2024/03/26:请需要算力支持的队伍填写注册信息收集表,详细赞助信息见评测官网

2024/04/05:评测任务的无答案测试集已发布,详见 datasets 文件仓。 各参赛队伍需在4月25日24:00之前提交结果集,具体要求及提交平台见 六、结果提交

2024/04/15:报名已截止。

2024/04/19:结果集提交方式变更:采用邮件方式进行提交。参赛队伍负责人以【参赛队伍名称 + CCL2024-Eval CHED评测结果集】给压缩包命名,以【队伍名称 + CHED2024结果提交】为邮件标题,将结果文件直接发送到 blcu_lcclab@163.com ,以提交时间截止前您的最后一次提交结果为准。

2024/05/10:成绩和排行榜已公布,详见文件仓。

2024/05/11:技术报告(含overview)英文和中文模板都按照CCL2024模板(论文模板下载链接:http://cips-cl.org/static/CCL2024/downloads/ccl2024_template.rar ) ,内容可以参考SemEval和CoNLL。

2024/05/14:关于排名获奖与论文录用的说明

  1. 本评测任务设置一等奖1名,二等奖1名,三等奖1名,中文信息学将会提供荣誉证书,参赛队伍需要提交技术报告(至少两页)才能获奖,我们将会综合最终得分情况与技术报告给出最后三支获奖队伍名单,参与评奖的技术报告需在 5月21日24:00 前提交至open review平台;

  2. 本评测任务经过审核之后将录用文章 3-5 篇,并选取 3 篇论文(不包括文献,4-6页)作为最后CCL评测会议的参会报告文章,参赛队伍可在技术报告的基础上进行修改完善,论文要明确技术细节、保证学术水准、突出自身特色,需在 5月31日 5月30日24:00 前提交至open review平台;

  3. 尽快注册https://openreview.net/:尽量使用edu邮箱(其他邮箱也可,通过速度较慢),技术报告和录用论文都将在open review平台上进行提交和审核;

  4. 注意:排名获奖与论文录用是两个标准,评测会议将设置前三名颁奖环节,论文被录用者(前三名)需在现场作参会报告。

2024/05/18:关于提交技术报告论文的通知

技术报告论文需统一使用CCL LaTeX模板 ,标题前需统一加上(<CCL24-Eval任务x系统报告:>),如果是英文撰写,则为( < System Report for CCL24-Eval Task x: >) ,具体可以参考去年proceedings

目录

一、任务内容

二、评测数据

三、评价标准

四、报名方式

五、评测赛程

六、结果提交

七、奖项设置

八、参考文献

一、任务内容

1. 任务背景

事件抽取是从自然语言文本中识别和提取相关事件信息的过程。由于古文句法、语义复杂,使用范围小,针对古代汉语的信息抽取任务仍然面临着较大挑战。我们构建了古代汉语事件类型体系,并基于《二十四史》语料构建了中国古文历史事件检测数据集CHED[1],我们构建的事件类型体系一共包含9大类、67小类,共标注了8122个有效事件实例(包括触发词和事件类型),相关论文已在CCL2023上发表。为了进一步推动古代文本事件抽取任务的研究,我们依托CCL2024推出古文历史事件类型抽取评测任务,旨在为研究者提供学术交流平台,进一步提升事件抽取技术及中国古代历史文本的数字化研究水平。

2. 任务定义

举例来说,在句子“进军建德,擒贼帅赵桑干。”中,“进军”这个词可以表示“派兵到建德”这个事件,“擒”这个词可以表示“抓住敌方的将领赵桑干”这个事件。因此在这个句子中,触发词是“进军”和“擒”,分别代表“军事-备战-出兵”和“军事-作战-俘虏”这两个事件类型。

image

任务旨在评估古文历史事件检测的算法性能,包括两个子任务:

子任务一:触发词识别(Trigger Identification)

此任务需要识别文本中的事件触发词并标记它们的位置。触发词为最能代表事件发生的词语,一般为句中的谓语动词(其他句子成分皆可)。我们构建的数据集采用最简触发词原则[1],触发词以单音节词为主。

子任务二:事件类型判别(Event Type Classification)

我们构建了一个具有层级逻辑性的事件类型体系,此任务需要参考给定的事件类型体系,为每个触发词确定其所属的事件类型。子任务二被分为粗粒度(9大类)事件类型判别和细粒度(67小类)事件类型判别两部分。

3.事件类型体系

详见 Schema 文件:Classical Chinese Historical Event Schema.jsonl

schema

二、评测数据

我们从《二十四史》中选取了13159句语料进行标注,最后构建出了包含8122个有效事件实例的数据集CHED,各史书以及训练集、验证集、测试集的数据分布如下表所示:

史书 训练集 验证集 测试集 总计
1 史记 521 96 98 715
2 三国志 343 86 66 495
3 周书 483 118 113 714
4 梁书 38 7 14 59
5 魏书 174 32 24 230
6 后汉书 281 58 61 400
7 宋书 75 10 24 109
8 南齐书 81 21 30 132
9 汉书 417 100 81 598
10 晋书 236 44 44 324
11 陈书 101 21 27 149
12 北齐书 141 27 21 189
13 明史 249 42 47 338
14 南史 238 52 68 358
15 隋书 205 43 37 285
16 新五代史 528 117 123 768
17 宋史 302 49 67 418
18 北史 227 60 49 336
19 新唐书 70 25 33 128
20 旧唐书 175 51 49 275
21 辽史 98 18 14 130
22 元史 271 68 78 417
23 金史 175 32 36 243
24 旧五代史 221 41 50 312
5650 1218 1254 8122

三、评价标准

参赛者在测试集上参与评测。

子任务一:触发词识别(得分占整个任务40%)

参赛者需提交一个包含每个句子中触发词的位置信息的结果文件。

评价指标 BLEU(2-gram)
ROUGE(2-gram)
Exact-match-score
总分计算 (BLEU + ROUGE + Exact-match-score)/ 3

子任务二:事件类型判别(得分占整个任务60%)

参赛者需提交包含每个触发词及其预测的事件类型的结果文件。我们构建的事件类型体系一共包含9大类、67小类,子任务二被分为粗粒度(9大类)事件类型判别和细粒度(67小类)事件类型判别两部分,并使用宏平均(macro-average)和微平均(micro-average)两个指标进行评估。

宏平均 Macro Precision = Σ (每个大/小类的精确度) / (大/小类的总数9/67)
Macro Recall = Σ (每个大/小类的召回率) / (大/小类的总数9/67)
Macro F1 = Σ (每个大/小类的 F1 值) / (大/小类的总数9/67)
微平均 Micro Precision = 所有实例的正确判别数量 / 所有实例的判别数量
Micro Recall = 所有实例的正确判别数量 / 所有可能的实例数量
Micro F1 =(2 * Mi F1 * Mi R) / (Mi F1 + Mi R)
总分计算 (Macro F1 + Micro F1)/ 2

综合评价标准

总分 = 0.4 * 任务一得分 + 0.3 * 任务二粗粒度得分 + 0.3 * 任务二细粒度得分

四、报名方式

请您点击报名链接 进行报名。

报名成功后加入评测交流QQ群:762336909 可进行交流答疑。

五、评测赛程

后续具体评测赛程将在此任务网址进行更新,请您及时关注。(以下时间可能还会有调整,请关注网站最新消息)

时间 事项
2月15日~4月15日 开放报名
3月5日 发布训练集、验证集
4月5日 发布测试集
4月25日 提交测试集触发词识别及事件类型判别结果
4月30日 5月15日前 公布参赛队伍成绩和排名(开放申诉期)
5月15日 5月31日 提交中文或英文技术报告
5月20日 6月5日 中文或英文技术报告反馈
5月25日 6月10日 正式提交中英文评测论文
6月15日 公布获奖名单
6月20日 论文Camera Ready提交
7月25日~28日 CCL 2024评测研讨会(获奖队伍需做技术报告)

六、结果提交

参赛队伍在测试集上参与评测,结果集使用各个任务训练集的数据格式。

本次评测结果集采用邮件方式进行提交。参赛队伍负责人以【参赛队伍名称 + CCL2024-Eval CHED评测结果集】给压缩包命名,以【队伍名称 + CHED2024结果提交】为邮件标题,将结果文件直接发送到 blcu_lcclab@163.com ,以提交时间截止前您的最后一次提交结果为准。

七、奖项设置

本次评测将设置一、二、三等奖,中文信息学将会为本次评测获奖队伍提供荣誉证书。

八、参考文献

[1] Wei Congcong, Feng Zhenbing, Huang Shutan, Li Wei, and Shao Yanqiu. 2023. CHED: A Cross-Historical Dataset with a Logical Event Schema for Classical Chinese Event Detection. In Proceedings of the 22nd Chinese National Conference on Computational Linguistics, pages 875–888, Harbin, China. Chinese Information Processing Society of China.

[2] Feng Yao, Chaojun Xiao, Xiaozhi Wang, Zhiyuan Liu, Lei Hou, Cunchao Tu, Juanzi Li, Yun Liu, Weixing Shen, and Maosong Sun. 2022. LEVEN: A Large-Scale Chinese Legal Event Detection Dataset. In Findings of the Association for Computational Linguistics: ACL 2022, pages 183–201, Dublin, Ireland. Association for Computational Linguistics.

[3] Xiaozhi Wang, Ziqi Wang, Xu Han, Wangyi Jiang, Rong Han, Zhiyuan Liu, Juanzi Li, Peng Li, Yankai Lin, and Jie Zhou. 2020. MAVEN: A Massive General Domain Event Detection Dataset. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1652–1671, Online. Association for Computational Linguistics.

[4] Doddington, G. R., Mitchell, A., Przybocki, M. A., Ramshaw, L. A., Strassel, S. M., & Weischedel, R. M. (2004, May). The automatic content extraction (ace) program-tasks, data, and evaluation. In Lrec (Vol. 2, No. 1, pp. 837-840).

[5] Jacqueline Aguilar, Charley Beller, Paul McNamee, Benjamin Van Durme, Stephanie Strassel, Zhiyi Song, and Joe Ellis. 2014. A Comparison of the Events and Relations Across ACE, ERE, TAC-KBP, and FrameNet Annotation Standards. In Proceedings of the Second Workshop on EVENTS: Definition, Detection, Coreference, and Representation, pages 45–53, Baltimore, Maryland, USA. Association for Computational Linguistics.

[6] Q. Li et al., "A Survey on Deep Learning Event Extraction: Approaches and Applications," in IEEE Transactions on Neural Networks and Learning Systems, 2022, doi: 10.1109/TNNLS.2022.3213168.

[7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171–4186, Minneapolis, Minnesota. Association for Computational Linguistics.

[8] Sepp Hochreiter, Jürgen Schmidhuber; Long Short-Term Memory. Neural Comput 1997; 9 (8): 1735–1780. doi: https://doi.org/10.1162/neco.1997.9.8.1735

[9] Y. Cao and A. Yusup, "Chinese Electronic Medical Record Named Entity Recognition based on BERT-WWM-IDCNN-CRF," 2022 9th International Conference on Dependable Systems and Their Applications (DSA), Wulumuqi, China, 2022, pp. 582-589, doi: 10.1109/DSA56465.2022.00084.

About

CCL2024评测任务-古文历史事件类型抽取评测(CHED2024)

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors