2020년 12월 9일 수요일

subject recruitment and online experiment plaforms

If you are adverse to AMT, two alternatives to consider are Prolific (prolific.co) which hooks to Gorilla and CloudResearch at cloudresearch.com.  THere are also Citizen Science frameworks such as zooniverse.org or testmybrain.org, but you would need to configure things to make this of general interest for that.

 In this excellent short talk during  Gorilla BeOnline conference Lorijn Zaadnoordijk, talks about possible ways to recruit children via recruitment platforms.

Another good resource is this conference we ran over the
summer: http://www.movingresearchonline.info/. The materials and talks are
all online.

2020년 11월 27일 금요일

ms단위로 손실없이 비디오 잘라내는 법_MeGUI

2020.11.28

비디오의 용량이 크면 코딩하는데 있어서 어려움이 있을 수 있습니다. 그래서 MeGUI(메구이)라는 프로그램을 통해 영상을 frame 단위(40ms)단위로 자를 수 있는 방법을 소개합니다.

과정은 크게 **영상 자르기+음성자르기+합치기** 이렇게 3단계로 나뉘어집니다.
먼저 https://megui.kr.uptodown.com/windows/download 에서 다운로드 받습니다.

1. 영상 자르기 
메구이를 실행하여 <Tools> -> <AVS Script Creator> 를 클릭하면 
아래과 같은 창이 나옵니다.
여기에서 Video input에 원본 영상을 선택하면 아래와 같은 알림이 나옵니다. 이때 <File Indexer>를 선택합니다. 
이후에 나오는 창에서 <Queue>를 선택하고 조금 기다리면 영상이 뜨는 큰 창과 아래와 같은알림창이 나옵니다. 여기에서 <Resize>를 체크해제(해제하지 않으면 자동으로 영상크기가 잘립니다.) 하고 우측 하단의 <Save>를 누릅니다.

그리고 원본영상이 있는 파일에 가보면 아래와 같이 2개의 avs형식의 영상이 추가로 생긴 것을 볼 수 있습니다.


다시 원래의 창을 클릭해서(어떠한 창도 닫지 않습니다!) <Tools> -> <AVS Cutter>을 클릭합니다. **아래의 그림을 참고하시면 좋습니다.
AVS Cutter를 클릭하면 다음과 같이 파일을 선택하라고 나오는데, 이때 "track 1"과 같은 말이 붙지 않은 영상을 클릭하고 <열기>를 클릭합니다.

그리고 다시 a)영상이 뜨는 큰 창과 b)작업창이 뜹니다.  본격적으로 자를 구간을 정하는 단계입니다. 
  a)영상이 뜨는 큰 창을 통해 자를 구간을 <Zone Start><Zone End>버튼을 각각 시작점과 끝낼 점을 정하고 클릭하여 설정해줍니다. 화면은 40ms 단위로 넘어가기 때문에 영상을 재생하면 소리 없이 프레임이 움직이는 것을 볼 수 있습니다. 아래와 같이 맨 위쪽 라인에 ms가 나오는 것을 볼 수 있습니다.
 
그리고 b)작업창에서는 아까 설정했던 <Zone Start>와 <Zone End>의 ms를 다음과 같이 기록하고  


 (1) <Add> 
 (2) <Add cuts to script>(자른 구간을 영상으로 저장할 스크립트입니다.) & 확인버튼 
 (3) <Save cuts file>(선택한 구간의 음성파일이 .clt 형식으로 따로 저장되어서 나중에 음성자를때 용이하게 사용가능합니다. 저장은 원하시는 이름으로 하시면 됩니다.) 
(4) <Close> 
순서로 4번 클릭해줍니다. 

** 아래는 (3)에서 저장했던 파일의 모습니다.

이제 영상자르는 마지막 단계입니다. 다시 원래의 창으로 가서 <Input> -> <Queue> 를 아래와 같이 누르면 아래의 그림과 같이 진행되는 것을 보실 수 있습니다. 




이렇게 지정한 ms 구간으로 저장됩니다. 단, 소리는 저장되지 않고 영상만 저장됩니다.
이 단계는 10분-15분정도 소요됩니다. <Priority> <High>로 설정하면 조금 더 빠르게 진행하실 수 있습니다.
(반드시!! 저장된 잘린 영상 파일은 MKV형식이므로 mp4로 변환해야 합니다!)
 https://convertio.co/kr/ 를 이용할 수 있습니다.


2. 음성 자르기
영상이 저장되는 동안 음성을 자르도록 하겠습니다.  

(역시 아무창도 닫지 않습니다.) 
원래의 창에서 <Audio encoding>란에서 <Queue> 를 누릅니다.

아래와 같은 AC3형식의 파일(파일이름:'track1_')이 생긴 것을 볼 수 있습니다. 

<Tools> -> <Audio Cutter> 를 클릭하여 다음과 같이 input/cut/output file을 선택합니다.
: Input file에 방금생성한 'track1_' 이름을 가진 AC3형식의 음성파일을 선택.
: Cut file에는 영상 자르기 할때 했던 (3) <Save cuts file>에서 저장했던 .clt 파일을 선택.
: Output file에 저장 할 곳과 파일이름을 지정후 <Create job> (저장할 곳/파일이름을 별도로 지정하지 않아도 상관없으니 파일이 많아 헷갈릴 수 있습니다!)
(*** 저는 따로 저장하지 않고 input 파일이 있던 곳에 추출되로록 하였습니다. audio cutter을 이용해 최종적으로 생성된 잘린 음성 파일은 마찬가지로 AC3파일 파일 이름이 "track1_new로 저장되었습니다.)


3. 자른 영상과 자른 음성 파일 합치기.
앞서 c)MKV형식으로 저장된 영상을 mp4로 변환한 것d)AC3형식의 'track1_new' 음성파일을 이용합니다.

 <Tools> -> <Muxer> -> <MP4 Muxer>을 차례로 선택합니다.


클릭하면 아래와 같은 작업창이 뜹니다. Video Input에 c)를 선택하고,  Audio1-Input에 d)를 선택합니다.  Output 선택은 마찬가지로 자유입니다.
 

마지막으로 <Queue> 를 클릭하여 마무리하면 완료입니다! 수고하셨습니다.

다른 프로그램들은 ms 단위로 잘라지지 않아 코딩을 할 경우 프레임단위로 움직이지 않았습니다. 그러나 MeGUI를 사용하여 cut을 하여 frame단위인 ms단위로 잘라서 코딩 및 원하시는 작업을 진행하시면 됩니다.  :-)











2020년 9월 28일 월요일

실험실 스피커 setup

 실험실 스피커 setup (2020.09.28 기준)

Terratec download link

https://www.driverscape.com/download/terratec-dmx-6fire-device

: 사이트에 들어가서 Terratec 드라이브를 다운로드 받아 컴퓨터에 설치합니다.


2. Terratec 셋업 ppt, https://www.dropbox.com/s/gfwni7i75t4shdt/2018-2-23-%EC%84%A4%EB%AA%85%EC%84%9C.pptx?dl=0


2번의 ppt 내용처럼 Terratec 스피커를 동일하게 맞춰주세요!


실험용 컴퓨터 display setup


실험용 컴퓨터 display setup (2020.09.28 기준)

1. zepman을 실행하는 실험용 컴퓨터 고유 식별 번호는 2번 입니다.
2. 실험실 부스 안 앞 모니터의 고유 식별 번호는 1번 입니다.
3. 실험실 부스 안 왼쪽 모니터의(실험실 부스 안 앞 모니터를 바라보고 섰을 때) 고유 식별 번호는 3번 입니다.
4. 실험실 부스 안 오른쪽 모니터의(3번과 같은 방향) 고유 식별 번호는 4번 입니다.



<Display setup 설정 방법>
1. 바탕화면에서 마우스 오른쪽 버튼 클릭
2. '디스플레이 설정' 클릭
3. 

사진과 똑같이!!! 2-1-4-3 이 되도록 맞춰줍니다.
**** 디스플레이 설정이 잘못 넘어갈 경우 실험실 부스 안 모니터로 바탕화면이 넘어갈 수 있으므로(실험실 부스 안으로 모니터가 넘어가면 맞추기가 더 어려워집니다..!) 잘 확인해서 설정하도록 합니다. 

4. 

사진과 똑같이 여러 디스플레이>다중 디스플레이> '바탕화면을 이 디스플레이에 확장'을 2-1-4-3 모든 모니터에 적용해주세요!!
*** 이때 '이 디스플레이를 주 모니터로 만들기'는 2번 모니터인 실험용 컴퓨터 모니터에만 체크되어야 합니다!!


5. 모든 설정을 마친 후 zepman으로 실험을 실행해서 모니터와 스피커가 올바르게 작동하는지 확인합니다.

2020년 7월 22일 수요일

noun/verb asymmetry

7/16

1. watch the following ICIS2020 presentation together

Solutions for studying early language development, Michael Frank, Stanford University

2. reading

https://langcog.github.io/wordbank-book/categories-syntactic.html


https://langcog.github.io/wordbank-book/images/bates1994_2_key.png


3. 다음주까지

수한씨: type/token 통계 다시 내기
현아씨: Mike Frank 책 11장에 있는 것과 같은 그래프 그려보기
             (X: CDI 설문지 아는 어휘 갯수, Y: 명사 혹은 동사의 정답 비율)

-> Frank 에 있는 그래프와 비슷하게 나옴. 데이터 공유하기 (100여명이 어디에서 compile 된 건지).


7/23

1. watch

Chiara Suttora, Alma Mater Studiorum - Univ. of Bologna

S31.2 The food for thought Unpacking the everyday language experiences of infants, Catherine Tamis-LeMonda, New York University

2. 코딩 기준 재정립

품사코딩

※X는 코딩되지 않았다는 뜻입니다.
※N: 명사(대명사 포함) -- touch 코딩할때 대명사를 N 으로 코딩함
 N/V asymmetry 코딩시에 CDS와 CPS 는 대명사를 따로 코딩중. 참고로 Choi 는 대명사를 명사로 코딩하지 않음. Kim 도 Choi 의 방법을 따름.
※V: 동사 (잡을 같은 modifier 활용형도 V로 표시함)
※P: 서술어로 쓰인 형용사 ex) 예쁘다, 이렇다 (영어의 경우 "whats' up" 에서 "up"을 predicate 로 표시함 ala 김미경 --> other 카테고리에 부사, particle,형용사 를 넣고 나중에 한국어의 predicate 과 비교했다고 했는데 그 내용이 자세히 없는 것 같음. 수한씨가 좀 자세히 보고 예를 찾아보고 결정바람.)
※A: 수식어로 쓰인 형용사, 관형사 ex) 예쁜 (사람), 한 (사람) -- 선행연구(Choi, Kim) 에서는 이를 제외함.
※AV: 조동사(보조 용언) ex) (먹어) 봐
※N-V: 명사 또는 대명사+서술격조사(활용형)
※ADV: 부사
※I: 감탄사



#품사 코딩 매튜얼 (CDS 품사분포 폴더)
현아씨가 한국어, 영어 파일을 한개씩 검토한 후 정비할 필요성이 있는 경우들에 대해 논의준비 (random_sentences_korean_coding, random_sentences_english_coding 폴더안의 데이터 한국어, 영어 한두파일 정도를 보면서 검토)



3. facebook 실험홍보
현아씨가 먼저 ppt 올리기
4. 어머니들에게 CDI 피드백을 줄때 동년배의 75% 이상 아기들이 아는 단어가 아닌것을 주기보다, 75% 아기들이 아는데 우리아기는 모르는 단어를 파악하게 하는 것이 더 효과적일 것 같음. 이런 피드백을 줄 수 있는 template 를 현아씨가 만들어보기로 함.

7/30

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3821773/

https://groups.psych.northwestern.edu/gentner/papers/Gentner82c.pdf

현아:
- Frank 에 있는 그래프 그린 데이터 출처 공유함.(100여명을 더 추가하여 총 200명정도의 데이터 적용)
-어머님들께 보낼 결과지 양식을 새로 만듦, (각 연령별로 75%아이들이 아는 단어 중 아기가 표현하는 단어에 체크하는 방식_영/유아 아기 모두<2020/08/24에 영아용 excel/hwp 템플릿을 추가 만듦.>): hwp(pdf), excel(pdf) 파일 두 개를 보내기로 함.

     ▶ 파일 위치:

    hwp=
"Dropbox\IPLP\LENA_Participants_CDI\ [8_17개월] K M-B CDI-template new.hwp": 영아용
 "Dropbox\IPLP\LENA_Participants_CDI\K M-B CDI 평가결과-template new.hwp": 유아용           
    exel=
google 실험실 계정\스프레드 시트\"체크형 결과지 template"이라는 파일을 이용(사본을 만들어 사용 해야함.)


    ▶ 전송방법: 
    hwp=
 기존처럼 아기 정보, 백분위, 개월구간 등을 입력. 
    excel=
1. 응답온 아기의 연령구간에 맞는 시트 선택
2. 해당 시트에 응답 온 아기의 단어(아이가 표현하는 단어)를 체크표시
3. 파일->다운로드->PDF문서로 저장을 한다.
 <이때! 세로모드, 비율: 너비에 맞춤, 여백: 기본 값, 서식 설정: "눈금선표시"의 체크박스를
  
해제한다.>

*** 파일을 첨부할 때 K M-B CDI 평가결과를 먼저 선택한 후 체크형 결과지를 선택해야 어머니가 열람하실때 순서가 맞습니다.

- 페이스북, 인스타그램에 실험 홍보하기
- ManyBabies at home
slack 에 가입해서 localize 를 위한 translation volunteer 하기

https://app.slack.com/client/T012L1VD2HX/C012RHVMDQR

Dear @channel
After carefully comparing all options, we have finally decided on a platform to run the ManyBabies-AtHome studies: LookIt. We were convinced by the thoroughness of development and suitability for infant and child studies. LookIt also is Open Source, which aligns with the spirit of ManyBabies. Finally, it allows for flexible usage, and we hope many of you will be able to continue using it for your own purposes after the MB project.In addition to work towards a broadly usable remote testing protocol, we also have a broader goal, of working towards more representative experiments, that recruit from a wider range of countries. At present, most psychology experiments use participants from a small section of the world’s population - Western, Educated, Industrialized, Rich and Democratic (“WEIRD”) countries - and we do not know if they will generalize.This brings two challenges, but we are confident we can overcome them. First, like many experimental platforms, LookIt currently only exists in one language (English). We have, however, found a way to translate the interface into multiple languages (more on developing this will be posted in #tech_development and #translations), thus this means infants from any language background will be able to participate - and conversely, thanks to the MB project, LookIt will be ready for your language soon!Second, and more complicated, is the fact that if we wish to acquire an internationally representative dataset, we will need to share data across national borders. For example, LookIt data are stored on US servers, which poses a problem for some EU IRB committees. We cannot guarantee that all committees will be convinced, but we will work hard to write thorough IRB documents that stress the many advantages of advancing infant studies within the LookIt framework. 
Now that we have decided on the platform, we can take more concrete steps towards preparing the studies - here is how to get involved:Translation team wanted! We need to translate the LookIt interface into multiple languages. 
Please join the #translations channel on Slack if you want to volunteer! Here are the instructions (https://docs.google.com/document/d/1IHCGotfnLt_RsIlDxO4iRo-3cBVZn6Sh2fP3w3dhUEM/edit).Please get in touch on the channel or directly with Sho to get more details Stimulus creation team wanted! Our first paradigm will be Visual Preference. Please join #paradigm_base channel to contribute. Here are the ideas for our first paradigm based on our literature search: https://docs.google.com/presentation/d/1wARwSKjSylYPUElrVLLlaAt3qGPYZUyDyGLrPrR_MEE/edit?usp=drive_web&ouid=104634276585484852038Team for tech support in internationalization of LookIt API wanted! Please join #tech_development channel if you are familiar with python and javascript (and ideally django and github). Volunteers for moving forward #ethics wanted! Helen will share updates in the channel shortly. Excited to be moving forward!The MBAH leadership teamPS For those who haven’t watched it, we also want to share the video of our initial meeting: https://drive.google.com/drive/u/0/folders/1p_RgXPS4ERhKjavYE7LJr7OV_Qil-198

수한:
- CDS 품사 코딩 한번 더 검토하기.(기존 코딩은 앞뒤 맥락을 찾아보지 않고 코딩했기 떄문에 이번에는 앞뒤 맥락을 더 보고 코딩하기. +constructon)
- 파일 위치:
- CPS 품사 코딩에 Object/non-object, Action/non-action 코딩 추가
- 파일 위치:
- HPP or IPLP 실험 영상 하드디스크에서 찾아보기.










2020년 7월 1일 수요일

줌(zoom)을 이용한 온라인 실험 시 주의할 점 

로컬로 기록해야 합니다.(클라우드 녹화는 공유화면과 참여자가 좌우분할로 녹화되지 않습니다!!!)


Experimenter(host)
1. Recorder가 zoom방에 들어온 것을 확인한 후 기록 권한을 Recorder에게 줍니다.
2. 실험 안내용 ppt를 화면공유로 먼저 띄운 후 실험 준비가 잘 되어 있는지 체크합니다.
3. 실험 준비가 다 되었으면 Zepman 화면을 공유하고 실험을 진행합니다.

Recorder
1. Record용 노트북 충전이 잘 되어 있는지 확인하고 연결된 공유기가 'cds'인지 확인합니다. ('cds2'아닙니다!)
2. 줌 설정-> 기록 -> "화면 공유 중 비디오 기록, 기록 중 공유 화면 옆에 비디오 배치"에       체크 되어있는지 확인합니다.
3. 녹화 전 자신의 비디오와 마이크를 꺼줍니다.
4. 화면 공유 후 병렬모드로 전환한 다음 갤러리 모드로 바꾸고 녹화를 시작합니다.


Baby
1. zoom 화면이 전체화면으로 되어 있는지 확인합니다.
2. 병렬모드나 갤러리모드가 아닌 발표자 모드로 되어 있는지 확인합니다.
3. 자신의 캠이 안 보이도록 썸네일 비디오 표시 숨기기 버튼을 눌러 캠을 숨겨줍니다.

zoom ID와 비밀번호는 구글 연구실 계정과 동일합니다

2020년 2월 19일 수요일

연령별 실험 시행표(2020.04.13 기준)

<조선대음성학연구실 연령별 실험 시행표> - 2020.04.13 기준



Age(month)
Study
Method
LENA
SES
K M-B CDI
(Online)
7.5~8
Segmenation1
monosyllable
HPP
O
O
 
10.5~11
Segmenation2
1:stress pattern
2:disyllable
HPP
O
O
O
13.5~14
Segmentation3
Visual_CDI
IPLP
O
O
O
17.5~18
Segmentation4
1: Particle_marker
2:Word_Order
HPP_syntax
O
O
O
14~30
Moma_Kipi
IPLP
O
O
O
20
Visual_CDI
IPLP
O
O
 O
26
Visual_CDI
IPLP
O
O
 O
 
 
 
 
 
 
 
 
 
 
 
 

update: 8/6/2020 go to google drive and look up the spreadsheet which includes the location of files and the resulting data

  • Segmentation2 실험은 2번 방문으로 나눠서 1차 방문은 stress pattern, 2차 방문은 disyllable 진행합니다. (단, 2차 방문은 1차 방문 날짜 1주일 이내)
  • Segmentation2 참가 아기들의 LENA는 택배가 아닌 2차 방문 때 어머니께서 가지고 오시도록 진행합니다. (Tip. 2차 방문 날짜를 어머니께서 LENA 녹음을 마칠 수 있도록 예약하기)

  • 연령이 14개월 이상인 Visual_CDI 참가 아기들 중 실험 날짜에 컨디션이 좋으면 Moma_Kipi 실험도 진행합니다. (단, Visual_CDI가 먼저 진행되어야 합니다.)

  • Segmentation4 실험은 2번 방문으로 나눠서 1차 방문은 particle_marker, 2차 방문은 word_order 진행합니다. (단, 2차 방문은 1차 방문 날짜 1주일 이내)
  • Segmentation4 참가 아기들의 LENA는 택배가 아닌 2차 방문 때 어머니께서 가지고 오시도록 진행합니다. (Tip. 2차 방문 날짜를 어머니께서 LENA 녹음을 마칠 수 있도록 예약하기)

  • 연령이 14~30개월인 moma_kipi 참가 아기들 중 실험 날짜에 컨디션이 좋으면 Visual_CDI 실험도 진행합니다. (단, moma_kipi가 먼저 진행되어야 합니다.)

  • 실험 참여를 위해 실험실에 방문하시는 모든 아기 어머님들을 대상으로 언어환경정보&가정환경조사 설문지를 작성하시도록 합니다. ( 408호 연구실 컴퓨터로 응답) 언어환경정보&가정환경조사 설문지는 1번만 응답하면 됩니다.

  • ★★★ 실험 날짜를 예약할 때 어머님들께 해당 실험에 맞는 K M-B CDI 설문조사 링크를 보내드리고 꼭!! 실험실 방문 전 응답하실 수 있도록 말씀드립니다. 만약 실험실에 방문하시는 날짜까지 설문조사가 진행되어 있지 않을 경우 408호 연구실 컴퓨터로 응답하시도록 합니다. ★★★ 


2020년 2월 13일 목요일

Visual_CDI experiment_eye tracking version procedures

<Visual_CDI 실험 절차>

** Visual_CDI attention getter가 gaze control로 넘어가는 가장 최신 버전
https://www.beexy.nl/eval/eon-suk/VisualCDI-20200220.zip

-압축파일 풀어서 stimuli와 stimuli의 images 폴더에 teddy.png(moma_kipi에서 복사)
 파일 넣어서 사용

**Visual_CDI 실험은 정면의 화면만 사용하므로 실험 전 좌우 화면을 꺼줍니다.
**스피커 역시 정면의 스피커만 사용하고 좌우는 꼭 꺼줍니다!

1. Zepman을 클릭
2. 왼쪽 상단의 Open 클릭 ---> 바탕화면의 VisualCDI folder 클릭


3. 차례대로 Researchers , Participants 지정
   Researcher : 'LG' 클릭 ---> 오른쪽 하단의 'Select' 클릭
   Participants : 하단의 'New' 클릭 ---> 'participants id' 작성 후 'OK' 클릭



4.  새로 만들어진 Participant(= 이제 실험 할 피험자) 클릭 ---> 하단의 'Edit' 클릭
     'Edit participant record' 창이 나오면 피험자의 생년월일, 성별, fullterm, sibling 체크



5. Participant record가 다 지정되면 아래 사진의 오른쪽 Selection처럼 지정되었는지 확인
   상단의 Check --> Run --> OK 클릭 --> 실험이 시작 됨


6.  
a) F5 버튼 누르기(= Experimenter 컴퓨터에도 화면 보이게 하기)
b) F10 버튼 누르기(= 화면 창 키우기)
c) Enter 누르기 ---> 'C' 누르기 (= Connect to eye tracker)

d) Enter 두 번 누르기 (=verify/adjust cameras or head position) ---> 인형이 나오면 부스 안으로 들어가서 아기와 eye trakcer의 거리가 650cm 되도록 맞추기  ---> 부스 밖으로 나와서 Esc 누르기



e) 'C' 눌러서 Calibration 시작 ---> CCTV를 통해 아기가 곰돌이 인형을 보면 Enter 누르기
   좌우 코너, 가운데 총 5번 진행



★★★★★★★★ d)와 e)는 실험 전 무조건 해야 한다!!!!

f) Esc 두 번 누르기 ---> 'X' 눌러서 실험 시작 (= proceed with experiment)
   F7 눌러서 Experimenter 컴퓨터 화면에만 gaze symbol이 나오도록 한다.
   (= 아기의 시선에 따라 실험이 잘 진행되는지 알 수 있다)

7. 실험을 시작하는 화면과 노래가 나오면 컴퓨터 왼쪽에 있는 CCTV 녹화 시작하기
   왼쪽 하단의 하얀색 점 누르면 녹화가 시작됨 ----> 빨간색 점이 된다(=녹화 중을 의미)

8. 화면에 attention getter인 초록색 네모가 나왔을 때 아이가 화면을 바라보면 Enter key를 눌러서 다음 trial로 넘어가도록 한다. 



9. 한 session이 끝날 때마다 소리와 함께 그림이 나오는 것은 아기의 흥미를 유발하기 위한 것임으로 소리가 다 끝나고 Enter key를 누르면 다시 attention getter가 나온다. 



================실험 종료 후 ================

8. 실험이 끝나는 노래가 나오면 CCTV 녹화 끝내기
    6번에서 눌렀던 왼쪽 하단의 빨간색 점 클릭 ---> 비밀번호는 000000

9. 
a) 실험  Control 창의 'Quit' 클릭
b) Control 창이 닫히면 Zepman 창 왼쪽 상단의 Database 클릭 ---> Extract Results 클릭
    'Extract results from database' 창에 나오는 'Experiment session status' 지정 후 
     - STOPPED, ABORTEDFINISHED, FAILEDREJECTED



c) 'OK' 클릭하면 실험 및 실험 데이터 저장 완료!

==========================================================

10. 실험을 도중에 종료해야 하는 경우(ex. 아기가 심하게 울때) 

실험이 도중에 중단되었다고 해서 절대로!!! 바로 Zepman 창을 닫지 않는다!!!

!!!!Dropout data 저장 방법!!!!
a) Ctrl + F4(=Jump to thank-you phase)를 눌러서 실험 종료 화면으로 넘어간다
b) 종료 화면으로 넘어가면 실험  Control 창의 'Quit' 클릭 



c) Control 창이 닫히면 Zepman 창 왼쪽 상단의 Database 클릭 ---> Extract Results 클릭
    'Extract results from database' 창에 나오는 'Experiment session status' 지정 후 
     - STOPPED, ABORTED, FAILED 로 표시한다.

d) 'OK' 클릭하면 실험 및 실험 데이터 저장 완료!

e) Data 정보의 정확성을 위해 실험실 계정 해당 실험 스프레드시트에 'dropout' 표시