From 26e38891931f155f793ba76ed78191edcff17f05 Mon Sep 17 00:00:00 2001 From: Chuqi Liu <544915084@qq.com> Date: Sun, 6 Jan 2019 02:13:14 +0800 Subject: [PATCH 1/8] Add primitive version of task specification --- R/config/AuditoryFusion/recs.csv | 10 ++++ R/config/AuditoryFusion/sdk.csv | 2 + content/post/08701_AuditoryFusion.Rmd | 78 +++++++++++++++++++++++++++ 3 files changed, 90 insertions(+) create mode 100644 R/config/AuditoryFusion/recs.csv create mode 100644 R/config/AuditoryFusion/sdk.csv create mode 100644 content/post/08701_AuditoryFusion.Rmd diff --git a/R/config/AuditoryFusion/recs.csv b/R/config/AuditoryFusion/recs.csv new file mode 100644 index 0000000..73a4a16 --- /dev/null +++ b/R/config/AuditoryFusion/recs.csv @@ -0,0 +1,10 @@ +名称,类型,说明 +`Round`,`int`,本任务有轮次的概念,此处记录当前在第几个轮次 +`STIM`,`int`,刺激编号(STIMulus),0-20中的一个 +`PropA`,`int`,声音A的混合比例,25%-75% +`PropB`,`int`,声音B的混合比例,25%-75% +`order`,`int`,声音A和声音B的呈现顺序,0=先A后B,1=先B后A +`CResp`,`char`,"正确的反应(Correct Response),包含两种可能:'Left', 'Right'" +`Resp`,`char`,"用户的实际反应(Response),包含两种可能:'Left', 'Right'" +`ACC`,`int`,正确或错误(ACCuracy),0=错误,1=正确 +`RT`,`int`,用户完成操作所需时间(单位:毫秒)(Response Time) diff --git a/R/config/AuditoryFusion/sdk.csv b/R/config/AuditoryFusion/sdk.csv new file mode 100644 index 0000000..b980ca7 --- /dev/null +++ b/R/config/AuditoryFusion/sdk.csv @@ -0,0 +1,2 @@ +参数名称,类型,说明 +`score`,`int`,用户的最终得分 diff --git a/content/post/08701_AuditoryFusion.Rmd b/content/post/08701_AuditoryFusion.Rmd new file mode 100644 index 0000000..c389a5a --- /dev/null +++ b/content/post/08701_AuditoryFusion.Rmd @@ -0,0 +1,78 @@ +--- +# heading of document +title: 是谁在唱歌(AuditoryFusion) # Chinese name(English name) +author: 刘楚麒 +date: 2018-12-28 # format 2006-01-01 +# slug +slug: # code-English name +# specific parameters for current task +code: "08701" +sdk: 999 +# hugo taxonomy related +tags: 听知觉声音分辨 +categories: 文档 +# blogdown output +output: + blogdown::html_page: + toc: true + md_extensions: -ascii_identifiers +--- + +```{r parse-meta, include=FALSE} +NAMES <- strsplit(rmarkdown::metadata$title, "(|)")[[1]] +NAME_CN <- NAMES[1] +NAME_EN <- NAMES[2] +CODE <- rmarkdown::metadata$code +SDK <- rmarkdown::metadata$sdk +``` + +# 基本信息 + +* **显示名称**:`r NAME_CN` +* **英文名称**:`r NAME_EN` +* **题目编号**:`r CODE` +* **任务描述**:测查听知觉,特别是声音分辨能力。 +* **测查能力**:感知觉-听知觉 + +# 前端交互 + +## 基本逻辑 + +屏幕上呈现一个森林,一左一右分别有一只小鸟,用户被告知两只小鸟会依次发出叫声,之后呈现一个新的声音,要求用户选择该声音更加接近哪只小鸟的叫声,难度会逐渐提高,记录用户的正确率和反应时。 + +## 详细说明 + +流程如下: + +1. 屏幕呈现森林和一左一右两只小鸟,此时不可操作,并等待用户做出操作,屏幕上方提示用户“触碰开始”。 +1. 任务开始。开始任务500ms后随机一边的小鸟发出声音并有相应动画提示,声音结束1s后另一只小鸟发出声音并有相应动画提示。两只小鸟都发出声音1s后呈现新的声音刺激,要求用户判断该声音更加接近哪只小鸟。一直等待直到用户作出反应。 +【ps: 此处的第三种新的声音是用前两种声音AB进行不同比例混合的,需要麻烦你们那边按照 25%A+75%B、27.5%A+72.5%B,30%A+70%B……75%A+25%B 间隔2.5%进行混合,一共21种】 +【任务难度为逐渐变难,难度是反应在两种比例的差距,即第一个试次为25%A+75%B或75%A+25%B,下一个随机为27.5%A+72.5%B或72.5%A+27.5%B】 +【为了后期分析便利,请把50%+50%的刺激材料称作0,25%A+75%B和75%A+25%B称作1和11、27.5%A+72.5%B和72.5%A+27.5%B称作2和12,如此类推】 +【AB声音如下,】 +1. 操作反馈。结束每次反应后立即呈现反馈,正确时呈现“判断正确,很棒!”,失败时呈现“判断错误,再仔细点聆听哦!”。反馈始终呈现直到用户做出操作,并进入下一试次。 +1. 试次间间隔。反馈消失后1s开始下一个试次。 + +# 后台配置 + +## 数据记录 + +```{r recording-variables, echo=FALSE, message=FALSE} +# knitr::kable( +# readr::read_csv( +# here::here("content", "resources", "config", NAME_EN, "recs.csv") +# ), +# caption = "原始数据变量列表" +# ) +``` + +## 试题算分 + +```{r sdk-score, echo=FALSE, message=FALSE} +# knitr::kable( +# readr::read_csv( +# here::here("content", "resources", "config", NAME_EN, "sdk.csv") +# ), +# caption = paste0("传入参数(算分码:`", SDK, "`)") +# ) +``` From 967fe6d9ec815c7f90918712da37eb0780c230c2 Mon Sep 17 00:00:00 2001 From: Chuqi Liu <544915084@qq.com> Date: Sun, 6 Jan 2019 18:05:46 +0800 Subject: [PATCH 2/8] optimize details --- content/post/08701_AuditoryFusion.Rmd | 8 +++++--- 1 file changed, 5 insertions(+), 3 deletions(-) diff --git a/content/post/08701_AuditoryFusion.Rmd b/content/post/08701_AuditoryFusion.Rmd index c389a5a..29b8917 100644 --- a/content/post/08701_AuditoryFusion.Rmd +++ b/content/post/08701_AuditoryFusion.Rmd @@ -45,11 +45,13 @@ SDK <- rmarkdown::metadata$sdk 流程如下: 1. 屏幕呈现森林和一左一右两只小鸟,此时不可操作,并等待用户做出操作,屏幕上方提示用户“触碰开始”。 -1. 任务开始。开始任务500ms后随机一边的小鸟发出声音并有相应动画提示,声音结束1s后另一只小鸟发出声音并有相应动画提示。两只小鸟都发出声音1s后呈现新的声音刺激,要求用户判断该声音更加接近哪只小鸟。一直等待直到用户作出反应。 +1. 任务开始。开始任务500ms后随机一边的小鸟发出声音并有相应动画提示,声音结束500ms后另一只小鸟发出声音并有相应动画提示。两只小鸟都发出声音500ms后呈现新的声音刺激,要求用户判断该声音更加接近哪只小鸟。一直等待直到用户作出反应。 【ps: 此处的第三种新的声音是用前两种声音AB进行不同比例混合的,需要麻烦你们那边按照 25%A+75%B、27.5%A+72.5%B,30%A+70%B……75%A+25%B 间隔2.5%进行混合,一共21种】 -【任务难度为逐渐变难,难度是反应在两种比例的差距,即第一个试次为25%A+75%B或75%A+25%B,下一个随机为27.5%A+72.5%B或72.5%A+27.5%B】 +【AB声音如下,A:http://sound.niaolei.org.cn/Oriolus-oriolus/144000.html;B:http://sound.niaolei.org.cn/Mirafra-javanica/24538.html】 +【麻烦分别截取AB大概500ms的声音作为原声,之后再两者混合】 【为了后期分析便利,请把50%+50%的刺激材料称作0,25%A+75%B和75%A+25%B称作1和11、27.5%A+72.5%B和72.5%A+27.5%B称作2和12,如此类推】 -【AB声音如下,】 +1. 当用户正确判断时增加难度,表现为缩小两种声音混合比例差距,即若上一个试次为25%A+75%B或75%A+25%B,下一个随机为27.5%A+72.5%B或72.5%A+27.5%B;当用户错误判断时降低难度,表现为增大两种声音混合比例差距,即若上一个试次为27.5%A+72.5%B,下一个随机为25%A+75%B或75%A+25%B。当用户累计完成8个round时(见下文),任务结束。 +【round指每次用户从答对(R)到答错(W),或答错到答对,视为一个round,例如RRWWRWRRWWWR,RRW是第一个round,WWR是第二个round,RW是第三个round,WR是第四个round……如此类推直到用户完成8个round任务结束】 1. 操作反馈。结束每次反应后立即呈现反馈,正确时呈现“判断正确,很棒!”,失败时呈现“判断错误,再仔细点聆听哦!”。反馈始终呈现直到用户做出操作,并进入下一试次。 1. 试次间间隔。反馈消失后1s开始下一个试次。 From c4a6799af6f1dbf4eec845292c7f40274580827e Mon Sep 17 00:00:00 2001 From: Chuqi Liu <544915084@qq.com> Date: Mon, 7 Jan 2019 17:36:41 +0800 Subject: [PATCH 3/8] Enhance descriptions --- R/config/AuditoryFusion/recs.csv | 15 +++++++-------- 1 file changed, 7 insertions(+), 8 deletions(-) diff --git a/R/config/AuditoryFusion/recs.csv b/R/config/AuditoryFusion/recs.csv index 73a4a16..0f23e4d 100644 --- a/R/config/AuditoryFusion/recs.csv +++ b/R/config/AuditoryFusion/recs.csv @@ -1,10 +1,9 @@ 名称,类型,说明 `Round`,`int`,本任务有轮次的概念,此处记录当前在第几个轮次 -`STIM`,`int`,刺激编号(STIMulus),0-20中的一个 -`PropA`,`int`,声音A的混合比例,25%-75% -`PropB`,`int`,声音B的混合比例,25%-75% -`order`,`int`,声音A和声音B的呈现顺序,0=先A后B,1=先B后A -`CResp`,`char`,"正确的反应(Correct Response),包含两种可能:'Left', 'Right'" -`Resp`,`char`,"用户的实际反应(Response),包含两种可能:'Left', 'Right'" -`ACC`,`int`,正确或错误(ACCuracy),0=错误,1=正确 -`RT`,`int`,用户完成操作所需时间(单位:毫秒)(Response Time) +`PropLeft`,`int`,左边鸟声的混合比例 +`PropRight`,`int`,右边鸟声的混合比例 +`Order`,`char`,左右侧声音的先后顺序,'LR'(先左后右)或'RL'(先右后左) +`CResp`,`char`,正确的反应(Correct Response),包含两种可能:'Left','Right' +`Resp`,`char`,用户的实际反应(Response),包含两种可能:'Left','Right' +`ACC`,`int`,正确或错误(ACCuracy),0=错误,1=正确 +`RT`,`int`,用户完成操作所需时间(单位:毫秒)(Response Time) From f7819d1e0f408fd71f985325a0f013dd3f6d6c6f Mon Sep 17 00:00:00 2001 From: Chuqi Liu <544915084@qq.com> Date: Mon, 7 Jan 2019 17:39:10 +0800 Subject: [PATCH 4/8] Add detail to scoring --- R/config/AuditoryFusion/sdk.csv | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/R/config/AuditoryFusion/sdk.csv b/R/config/AuditoryFusion/sdk.csv index b980ca7..0f44a49 100644 --- a/R/config/AuditoryFusion/sdk.csv +++ b/R/config/AuditoryFusion/sdk.csv @@ -1,2 +1,2 @@ 参数名称,类型,说明 -`score`,`int`,用户的最终得分 +`score`,`int`,用户的最终正确率 From 4f094b98fd756366f0b7ad98ee7afdd06b46ec40 Mon Sep 17 00:00:00 2001 From: Chuqi Liu <544915084@qq.com> Date: Mon, 7 Jan 2019 17:39:47 +0800 Subject: [PATCH 5/8] Enhance testing flow descriptions --- content/post/08701_AuditoryFusion.Rmd | 56 ++++++++++++++++----------- 1 file changed, 33 insertions(+), 23 deletions(-) diff --git a/content/post/08701_AuditoryFusion.Rmd b/content/post/08701_AuditoryFusion.Rmd index 29b8917..c695e15 100644 --- a/content/post/08701_AuditoryFusion.Rmd +++ b/content/post/08701_AuditoryFusion.Rmd @@ -42,39 +42,49 @@ SDK <- rmarkdown::metadata$sdk ## 详细说明 -流程如下: - -1. 屏幕呈现森林和一左一右两只小鸟,此时不可操作,并等待用户做出操作,屏幕上方提示用户“触碰开始”。 -1. 任务开始。开始任务500ms后随机一边的小鸟发出声音并有相应动画提示,声音结束500ms后另一只小鸟发出声音并有相应动画提示。两只小鸟都发出声音500ms后呈现新的声音刺激,要求用户判断该声音更加接近哪只小鸟。一直等待直到用户作出反应。 -【ps: 此处的第三种新的声音是用前两种声音AB进行不同比例混合的,需要麻烦你们那边按照 25%A+75%B、27.5%A+72.5%B,30%A+70%B……75%A+25%B 间隔2.5%进行混合,一共21种】 -【AB声音如下,A:http://sound.niaolei.org.cn/Oriolus-oriolus/144000.html;B:http://sound.niaolei.org.cn/Mirafra-javanica/24538.html】 -【麻烦分别截取AB大概500ms的声音作为原声,之后再两者混合】 -【为了后期分析便利,请把50%+50%的刺激材料称作0,25%A+75%B和75%A+25%B称作1和11、27.5%A+72.5%B和72.5%A+27.5%B称作2和12,如此类推】 -1. 当用户正确判断时增加难度,表现为缩小两种声音混合比例差距,即若上一个试次为25%A+75%B或75%A+25%B,下一个随机为27.5%A+72.5%B或72.5%A+27.5%B;当用户错误判断时降低难度,表现为增大两种声音混合比例差距,即若上一个试次为27.5%A+72.5%B,下一个随机为25%A+75%B或75%A+25%B。当用户累计完成8个round时(见下文),任务结束。 -【round指每次用户从答对(R)到答错(W),或答错到答对,视为一个round,例如RRWWRWRRWWWR,RRW是第一个round,WWR是第二个round,RW是第三个round,WR是第四个round……如此类推直到用户完成8个round任务结束】 -1. 操作反馈。结束每次反应后立即呈现反馈,正确时呈现“判断正确,很棒!”,失败时呈现“判断错误,再仔细点聆听哦!”。反馈始终呈现直到用户做出操作,并进入下一试次。 +### 流程说明 + +每个试次流程如下: + +1. 屏幕呈现森林和一左一右两只小鸟。随机一边的小鸟发出声音并有相应动画提示,声音结束500毫秒后另一只小鸟发出声音并有相应动画提示。用户需要记忆这两种声音。 +1. 500毫秒后呈现目标刺激,是由左右两边小鸟的声音合成的声音。起始混合比例为75%:25%,75%的为左右**随机**的一侧,后面所有的混合都是如此。随着用户的作答情况,混合比例会发生改变: + * 若上一个试次用户作答正确,则将上一试次混合比例中较高的减少2.5%(最小为52.5%,下同),而较低的增加2.5%(最大为47.5%,下同)作为本次的混合比例(即难度增加)。 + * 若上一个试次用户作答错误,则将上一试次混合比例中较高的增加2.5%,而较低的减少2.5%作为本次的混合比例(即难度减小)。 +1. 等待用户判断该声音更加接近哪只小鸟。一直等待直到用户作出反应。 +1. 操作反馈。结束每次反应后立即呈现反馈。 1. 试次间间隔。反馈消失后1s开始下一个试次。 +当用户完成8个[轮次](`r blogdown::shortcode("relref", "glossary#轮次")`)(定义二)后结束测验。 + +### 刺激说明 + +两只小鸟声音分别去以下网址下载: + +* http://sound.niaolei.org.cn/Oriolus-oriolus/144000.html +* http://sound.niaolei.org.cn/Mirafra-javanica/24538.html + +分别截取1秒的声音作为原声,之后再两者混合。 + # 后台配置 ## 数据记录 ```{r recording-variables, echo=FALSE, message=FALSE} -# knitr::kable( -# readr::read_csv( -# here::here("content", "resources", "config", NAME_EN, "recs.csv") -# ), -# caption = "原始数据变量列表" -# ) +knitr::kable( + readr::read_csv( + here::here("R", "config", NAME_EN, "recs.csv") + ), + caption = "原始数据变量列表" +) ``` ## 试题算分 ```{r sdk-score, echo=FALSE, message=FALSE} -# knitr::kable( -# readr::read_csv( -# here::here("content", "resources", "config", NAME_EN, "sdk.csv") -# ), -# caption = paste0("传入参数(算分码:`", SDK, "`)") -# ) +knitr::kable( + readr::read_csv( + here::here("R", "config", NAME_EN, "sdk.csv") + ), + caption = paste0("传入参数(算分码:`", SDK, "`)") +) ``` From a97c145d7e142c7caa47dac1298c66fe2f04b130 Mon Sep 17 00:00:00 2001 From: Chuqi Liu <544915084@qq.com> Date: Mon, 7 Jan 2019 17:45:00 +0800 Subject: [PATCH 6/8] Add `blogdown` compiled `.html` file for `hugo` to use --- content/post/08701_AuditoryFusion.html | 161 +++++++++++++++++++++++++ 1 file changed, 161 insertions(+) create mode 100644 content/post/08701_AuditoryFusion.html diff --git a/content/post/08701_AuditoryFusion.html b/content/post/08701_AuditoryFusion.html new file mode 100644 index 0000000..da819d5 --- /dev/null +++ b/content/post/08701_AuditoryFusion.html @@ -0,0 +1,161 @@ +--- +# heading of document +title: 是谁在唱歌(AuditoryFusion) # Chinese name(English name) +author: 刘楚麒 +date: 2018-12-28 # format 2006-01-01 +# slug +slug: # code-English name +# specific parameters for current task +code: "08701" +sdk: 999 +# hugo taxonomy related +tags: 听知觉声音分辨 +categories: 文档 +# blogdown output +output: + blogdown::html_page: + toc: true + md_extensions: -ascii_identifiers +--- + + +
+ +屏幕上呈现一个森林,一左一右分别有一只小鸟,用户被告知两只小鸟会依次发出叫声,之后呈现一个新的声音,要求用户选择该声音更加接近哪只小鸟的叫声,难度会逐渐提高,记录用户的正确率和反应时。
+每个试次流程如下:
+当用户完成8个轮次(定义二)后结束测验。
+两只小鸟声音分别去以下网址下载:
+分别截取1秒的声音作为原声,之后再两者混合。
+| 名称 | +类型 | +说明 | +
|---|---|---|
Round |
+int |
+本任务有轮次的概念,此处记录当前在第几个轮次 | +
PropLeft |
+int |
+左边鸟声的混合比例 | +
PropRight |
+int |
+右边鸟声的混合比例 | +
Order |
+char |
+左右侧声音的先后顺序,‘LR’(先左后右)或’RL’(先右后左) | +
CResp |
+char |
+正确的反应(Correct Response),包含两种可能:‘Left’,‘Right’ | +
Resp |
+char |
+用户的实际反应(Response),包含两种可能:‘Left’,‘Right’ | +
ACC |
+int |
+正确或错误(ACCuracy),0=错误,1=正确 | +
RT |
+int |
+用户完成操作所需时间(单位:毫秒)(Response Time) | +
| 参数名称 | +类型 | +说明 | +
|---|---|---|
score |
+int |
+用户的最终正确率 | +
两只小鸟声音分别去以下网址下载:
分别截取1秒的声音作为原声,之后再两者混合。