Method Article
이 연구는 확신에 차고 의심스런 운율 시나리오에서 이벤트 관련 잠재력의 오래된/새로운 효과를 조사하기 위한 훈련-테스트 패러다임을 소개합니다. 데이터는 Pz 및 기타 전극에서 400-850ms 사이의 향상된 후기 양성 성분을 보여줍니다. 이 파이프라인은 음성 운율 이상의 요인과 신호 바인딩 대상 식별에 미치는 영향을 탐색할 수 있습니다.
음성 스트림에서 친숙한 화자를 인식하는 것은 인간의 언어 의사 소통의 기본 측면입니다. 그러나 청취자가 어떻게 표현 언어에서 화자의 정체성을 식별할 수 있는지는 여전히 불분명합니다. 이 연구는 암기 기반 개별 화자 정체성 인식 접근 방식과 수반되는 뇌파(EEG) 데이터 분석 파이프라인을 개발하여 청취자가 친숙한 화자를 인식하고 낯선 화자를 구별하는 방법을 모니터링합니다. EEG 데이터는 음성을 기반으로 새로운 화자와 기존 화자를 구분하는 동안 온라인 인지 과정을 캡처하여 뇌 활동을 실시간으로 측정하고 반응 시간 및 정확도 측정의 한계를 극복합니다. 패러다임은 세 단계로 구성됩니다 : 청취자는 세 가지 목소리와 그들의 이름 (훈련) 사이의 연관성을 설정합니다. 청취자는 세 명의 후보의 음성에 해당하는 이름을 나타냅니다(확인). 청취자는 두 가지 대안 강제 선택 작업(테스트)에서 세 가지 이전 화자 목소리와 세 가지 새로운 화자 목소리를 구별합니다. 테스트에서 언어 운율은 자신감이 있거나 의심스러웠습니다. EEG 데이터는 64채널 EEG 시스템을 사용하여 수집한 다음 전처리를 거쳐 ERP 및 통계 분석을 위한 RStudio와 뇌 지형학을 위한 MATLAB으로 가져왔습니다. 결과는 Pz의 400-850ms 창 및 두 프로소디의 다른 더 넓은 범위의 전극에서 새로운 토커 조건과 비교하여 올드 토커에서 확대된 후기 양성 성분(LPC)이 유도되었음을 보여주었습니다. 그러나 이전/새 효과는 의심스런 운율 인식을 위해 중앙 및 후방 전극에서 강력했던 반면, 전방, 중앙 및 후방 전극은 확신 있는 운율 상태를 위한 것입니다. 이 연구는 이 실험 설계가 다양한 시나리오(예: 혐기성 표현) 및 발성아증과 같은 환자의 병리에서 화자별 신호 결합 효과를 조사하기 위한 참고 자료 역할을 할 수 있음을 제안합니다.
인간의 발성에는 감정(emotion)1,2, 건강 상태3,4, 생물학적 성(biological sex)5, 나이(age)6, 그리고 더 중요하게는 개인의 발성 정체성(vocal identity)7,8과 같은 정보가 풍부하다. 연구에 따르면 인간 청취자는 목소리를 통해 동료의 정체성을 인식하고 구별할 수 있는 강력한 능력을 가지고 있으며, 음향 공간에서 화자 정체성의 평균 기반 표현을 둘러싼 화자 내 변동을 극복한다9. 이러한 변화는 명확한 실용적 의도9, 감정 운율(emotion prosodies)10, 화자의 앎감을 전달하는 목소리 자신감(vocal confidence)11에 해당하는 음향 조작(기본 주파수 및 성도 길이, 즉 F0 및 VTL)에 의해 발생한다. 행동 실험은 언어 관련 조작8,12,13, 음악 경험 또는 읽기 능력과 같은 참가자 관련 특성14,15, 거꾸로 말하기 또는 비단어와 같은 자극 관련 적응16,17 등 청취자가 화자를 인식하는 데 영향을 미치는 많은 요인에 초점을 맞췄다. 더 많은 것은 문헌 검토18,19에서 찾을 수 있습니다. 최근의 몇몇 실험에서는 화자의 정체성 표현의 개인적 차이가 어떻게 인식 정확도를 저해할 수 있는지를 조사했으며, 이는 높은 감정 표현력과 낮은 감정 표현력(high and low emotional expressiveness)16, 중립적 표현력과 두려운 표현력(neutral versus fearful prosodies5)을 포함한 여러 측면을 고려했다. 리뷰20에서 제안한 바와 같이 추가 조사를 위해 더 많은 가능한 시나리오가 열려 있습니다.
첫 번째 연구 격차에 대해, 이 연구는 화자 식별의 신경학적 토대가 화자 내 변이가 청취자의 뇌 활동에 어떻게 도전하는지 아직 완전히 탐구하지 않았다고 제안합니다. 예를 들어, Zäske et al.의 fMRI 기반 화자 인식 과제에서 참가자의 우측 후방상측두이랑(pSTG), 우측 하측/중전두회(IFG/MFG), 우측 내측 전두이랑, 좌측 미상이랑은 언어 내용이 같거나 다르는지에 관계없이 오래된 화자와 새로운 화자로 올바르게 식별되었을 때 활성화가 감소한 것으로 나타났다21. 그러나 Zäske et al.의 초기 뇌파 검사(EEG) 연구에서는 화자 정체성 변이가 다른 텍스트를 통해 도입되었을 때 이러한 구/신 효과를 관찰하지 못했다22. 구체적으로, 청취자가 동일한 텍스트를 표현하는 친숙하고 훈련된 발화자를 만났을 때(즉, 다양하지 않은 언어 내용의 재생을 들었을 때) Pz 전극에서 감지된 300ms에서 700ms에 이르는 더 큰 LPC(Late Positive Component)는 발화자가 새로운 텍스트를 전달할 때 없었습니다.
Zäske et al.21의 주장을 뒷받침하기 위해 이 연구는 ERP(Event-Related Potential) 분석에서 교육 세션과 테스트 세션 간의 언어 내용의 차이에도 불구하고 이전/새로운 효과가 여전히 관찰될 수 있다고 의심합니다. 이 이론적 근거는 다른 텍스트가 사용된 조건에서 Zäske et al.22에서 구/신 효과가 없는 것은 Lavan et al.23이 제안한 것처럼 철저하고 효과적인 정체성 학습을 보장하기 위해 훈련 과제 중에 추가 점검 세션이 부족했기 때문일 수 있다는 개념에서 비롯됩니다. 결과적으로 이 연구의 첫 번째 목표는 이 가설을 조사하고 검증하는 것입니다. 본 연구는 훈련-테스팅 패러다임22에 체크 세션(checking session)을 추가하여 이를 검증하는 것을 목표로 한다.
이 연구가 다루고자 하는 또 다른 핵심 질문은 언어 운율이 있을 때 화자 식별의 견고성입니다. 이전의 행동 연구는 청취자가 서로 다른 운율에 걸쳐 화자를 인식하는 데 특히 어려움을 겪는다는 것을 시사했는데, 이는 운율 맥락의 조절적 역할, 즉 청취자는 다양한 훈련 테스트 운율 조건에서 저조한 성과를 보였습니다. 본 연구는 청자가 자신감 있는 또는 의심스런 운율에서 친숙한 화자를 인식하도록 노출시킴으로써 이를 검증하는 것을 목표로 한다24. 이 연구는 관찰된 ERP 차이가 음성 운율이 ID 인식에 미치는 영향을 설명하는 데 도움이 될 것으로 기대합니다.
본 연구의 핵심 목적은 화자 인식에서 구/신 효과의 견고성을 조사하고, 특히 자신감 있는 운율과 의심스러운 운율에서 발화자를 인식하는 데 차이가 있는지 여부를 조사하는 것입니다. Xu와 Armony10은 훈련-테스트 패러다임을 사용하여 행동 연구를 수행했으며, 그들의 연구 결과는 청취자가 운율 차이를 극복할 수 없으며(예: 중립 운율에서 발화자를 인식하도록 훈련받은 후 두려운 운율에서 테스트) 확률 수준10 미만의 정확도만 달성할 수 있음을 시사합니다. 음향 분석에 따르면 다양한 감정 상태를 표현하는 스피커는 VTL/F0 변조와 관련이 있습니다. 예를 들어, 자신감 있는 운율은 VTL이 길어지고 F0가 낮아지는 것이 특징인 반면, 의심스런 운율11,24의 경우 그 반대입니다. 또 다른 증거는 Lavan et al.23의 연구에서 나온 것으로, 청취자는 화자의 VTL 및 F0 변화에 적응하고 화자의 평균 기반 표현을 형성할 수 있음을 확인했습니다. 이 연구는 행동 데이터 관점에서 청취자가 운율 전반에 걸쳐 화자의 정체성을 여전히 인식할 가능성이 있음을 조정합니다(예: 자신감 있는 운율에서 자신을 인식하도록 훈련받았지만 의심스러운 운율에서 테스트됨, 준비 중인 별도의 원고에 보고됨). 그러나 화자 식별의 신경 상관 관계, 특히 Zäske et al.22이 관찰한 이전/새로운 효과의 일반화 가능성은 여전히 불분명합니다. 따라서 현재 연구는 테스트를 위한 맥락으로 확신에 찬 운율과 의심스러운 운율에서 이전/새로운 효과의 견고성을 검증하는 데 전념하고 있습니다.
이 연구는 구/신 효과 연구에서 기존 연구 패러다임에서 벗어난 것을 소개합니다. 과거의 연구는 오래된/새로운 화자 인식이 인식에 미치는 영향에 초점을 맞췄지만, 이 연구는 패러다임에 두 가지 자신감 수준(확신 대 의심)을 통합함으로써 이를 확장했습니다(따라서 2+2 연구). 이를 통해 우리는 자신감 있고 의심스러운 언어 운율의 맥락에서 화자 인식을 조사할 수 있습니다. 이 패러다임은 이전/새로운 효과의 견고성을 탐구할 수 있게 해줍니다. 자신감 있는 음성 맥락과 의심스러운 음성 맥락 모두에서 기억 효과와 관심 영역(ROI)에 대한 분석은 이 조사의 증거로 사용됩니다.
전체적으로, 이 연구는 1) 언어 내용이 동일하지 않고 2) 확신 대 의심 운율이 있는 경우에도 EEG 이전/새 효과의 확대된 LPC가 관찰 가능하다는 가설을 통해 음성 인식의 EEG 상관 관계에 대한 이해를 업데이트하는 것을 목표로 합니다. 본 연구는 3단계 패러다임을 통해 가설을 조사하였다. 첫째, 훈련 단계에서 참가자들은 세 가지 목소리와 그에 해당하는 이름 사이의 연관성을 확립했습니다. 그 후, 확인 단계에서 그들은 3명의 후보 중에서 선택한 음성에 해당하는 이름을 식별하는 임무를 맡았습니다. Lavan et al.23에 따른 이러한 점검은 훈련 단계와 테스트 단계의텍스트가 다를 때 관찰되지 않는 오래된 화자 친숙화(old speaker familiarization)가 불충분하고6, 발화자가 중립적이고 두려운 운율(prosodies)을 가로지르는 발화자를 인식할 수 없을 때 관찰되지 않는 오래된 화자에 대한 친숙함을 극복하는 것을 목표로 한다10. 마지막으로, 테스트 단계에서 참가자들은 두 가지 대안 강제 선택 과제에서 세 가지 기존 화자 목소리와 세 가지 새로운 화자 목소리를 구별했으며, 언어 운율은 자신감 있거나 의심스러운 것으로 제시되었습니다. EEG 데이터는 64채널 EEG 시스템을 사용하여 수집되었으며 분석 전에 전처리를 거쳤습니다. 통계 분석과 ERP(Event-related Potential) 분석은 RStudio에서 수행되었으며, MATLAB은 뇌 지형 분석에 활용되었습니다.
디자인 세부사항과 관련하여, 본 연구는 VTL과 관련이 있고 말하는 사람에 대한 인상에 영향을 미치는 화자의 키를 조절하는 화자 정체성 학습 실험을 제안한다23. 이러한 측면은 또한 인지된 지배력(perceived dominance)25과 같은 사회적 인상에 영향을 미치며, 이러한 높은 수준의 인상 형성은 화자 정체성(화자 정체성)26을 해독하는 것과 상호작용할 수 있다.
상하이국제대학(Shanghai International Studies University)의 언어학 연구소(Institute of Linguistics)의 윤리위원회(Ethics Committee)는 아래에 설명된 실험 설계를 승인했다. 이 연구에 대한 모든 참가자로부터 정보에 입각한 동의를 얻었습니다.
1. 오디오 라이브러리의 준비 및 검증
2. EEG 데이터 수집을 위한 프로그래밍
3. EEG 데이터 수집
4. EEG 데이터 처리
참고: 다음 설명은 EEG 데이터 전처리, 통계 분석 및 MATLAB 및 RStudio를 사용한 시각화를 포함하여 일괄 처리에 대해 설명합니다.
고전적인 구/신 효과는 테스트 세션의 음성 내용이 훈련 세션의 내용과 일치할 때, 특히 새로운 발화자 조건(22)과 비교하여 이전 발화자 조건에서 Pz 전극(300 내지 700ms 사이)에서 청취자의 뇌 활동이 크게 증가하는 것이 특징이다. 이 프로토콜은 이 효과의 업데이트된 버전을 공개합니다: 첫째, 400에서 850ms 사이의 새로운 발화자 상태와 비교하여 이전 상태에 대한 Pz 전극과 전체 뇌 영역에서 더 큰 긍정적 추세를 관찰합니다. 둘째, 테스트 세션의 음성 내용은 교육 세션의 내용과 다릅니다. 셋째, 자신감 있는 말투와 의심스런 말투시 모두 이러한 경향을 보일 것으로 예상된다. 마지막으로, 이전/새로운 효과는 테스트 세션 중 의심스러운 조건에서 더 두드러집니다(그림 2).
공식을 사용한 LMER 분석
lmer(전압 ~ 메모리 * ROI + (1|제목) + (1|채널))
메모리 유형(기존 메모리 유형과 새 메모리 유형)과 ROI가 모두 주효과를 가지며 메모리와 ROI 간의 상호 작용이 있음을 시사합니다(표 1). 추가 사후 분석 결과, 모든 뇌 영역에서 오래된 상태가 전방, 중앙 및 후방 영역을 포함하여 의심되는 상태보다 더 큰 양의 전압을 나타내는 것으로 나타났습니다(표 2). 베타 값을 비교하면 이전/새 효과가 전방 전극보다 중앙 및 후방 전극에서 더 두드러진다는 것을 시사합니다: 결합된 데이터 세트에 대해 - 전방 β = .40, 중앙 β = .63 및 후방 β = .60; 신뢰도 데이터 세트의 경우 - 전방 β = .61, 중앙 β = .63 및 후방 β = .76, 의심스러운 데이터 세트의 경우 전방 β = .44, 중앙 β = .87 및 후방 β = .69입니다. 중앙 및 후방 전극의 관여는 의심스러운 운율 조건에서 가장 두드러졌습니다.
공식을 사용하면
lmer(전압 ~ 메모리 + (1|제목))
Pz 전극에서 이전/새로운 효과의 존재를 확인했습니다. Pz 전극에서 메모리의 주요 효과(기존 대 신형)가 관찰되었습니다(F(1, 69341.99) = 120.46, p < .001, η²p = .002, β = .425, SE = .039, z-ratio = 10.98, p < .001). 확신 전용 조건에서 Pz 전극에서 메모리의 주요 효과(기존 대 신)가 관찰되었습니다(F(1, 34318.32) = 5.04, p = .025, η²p = .0001, β = .125, SE = .056, z-ratio = 2.25, p = .025). 의심스럽기만 한 조건에서는 Pz 전극에서 메모리의 주요 효과(기존 대 신)가 관찰되었습니다(F(1, 34993.20) = 317.02, p < .001, η²p = .009, β = .914, SE = .051, z-ratio = 17.81, p < .001).
그림 1: 각 블록에 대한 데이터 수집의 워크플로. (A) 훈련에서 청취자는 목소리를 듣고 그 목소리와 함께 제시된 이름을 연관시킵니다. 세 명의 늙은 화자를 기억해야 합니다. 프로그램에 나온 언어는 원래 중국어였습니다. A와 C는 Xiao (Junior) ZHANG과 같은 이름을 나타냅니다. (B) Checking에서 청취자는 숫자 패드에서 1, 2 또는 3을 눌러 음성 ID를 Xiao ZHAO와 같은 이름과 연결하여 음성을 들었을 때 발화자의 이름을 식별합니다. (C) 테스트에서 청취자는 목소리를 듣고 이전 또는 새 화자가 말한 것으로 분류합니다. (D) Prosody Design에서 볼 수 있듯이, 청취자는 세 명의 화자가 자신감 있게 또는 의심스럽게만 표현하는 것을 배우지만, 여섯 명의 화자가 자신감 있게 그리고 의심스럽게 말하는 것을 듣습니다. 버전 A 또는 B의 모양은 함께 사용할 수 없습니다. 버전 A가 남성 또는 여성 화자와 함께 나타나면 버전 B는 해당 여성 또는 남성 화자와 함께 나타납니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
그림 2: 이전/새 효과. (A, B, C) 그림은 운율 결합, 신뢰 전용 및 의심 전용 조건에 대해 각각 400ms에서 850ms까지 Pz 전극의 회색으로 표시된 ERP를 표시합니다. (D, E, F) 그림은 운율 결합, 확신 전용 및 의심 전용 조건에 대해 모든 전극(검은색 점으로 표시)에서 이전 마이너스 새 조건의 지형을 보여줍니다. 이 그림의 더 큰 버전을 보려면 여기를 클릭하십시오.
문맥 | 뇌 영역 | F 값 | 홍보(>F) | Eta2_partial |
결합 | 기억 | 9938.98 | .00 | .00 |
투자 수익 | 4.13 | .02 | .13 | |
기억:ROI | 182.37 | .00 | .00 | |
자신감 | 기억 | 7291.22 | .00 | .00 |
투자 수익 | 3.60 | .03 | .12 | |
기억:ROI | 41.94 | .00 | .00 | |
의심 | 기억 | 8333.38 | .00 | .00 |
투자 수익 | 4.65 | .01 | .15 | |
기억:ROI | 290.15 | .00 | .00 |
표 1: 뇌 영역 전반에 걸친 이전/새로운 효과에 대한 LMER 분석 결과: 결합, 확신 및 의심 데이터 세트. 사후 분석을 사용하면 * p < .05에서 유의, ** p < .01에서 유의, *** p < .001에서 유의합니다.
문맥 | 뇌 영역 | 대조 | 평가하다 | SE | z | p |
결합 | 앞쪽 | 오래 된-새로운 | .40 | .01 | 43.70 | .00*** |
중심적인 | 오래 된-새로운 | .63 | .01 | 61.74 | .00*** | |
후부 | 오래 된-새로운 | .60 | .01 | 67.51 | .00*** | |
자신감 | 앞쪽 | 오래 된-새로운 | .61 | .01 | 46.63 | .00*** |
중심적인 | 오래 된-새로운 | .63 | .01 | 43.22 | .00*** | |
후부 | 오래 된-새로운 | .76 | .01 | 59.95 | .00*** | |
의심 | 앞쪽 | 오래 된-새로운 | .44 | .01 | 35.95 | .00*** |
중심적인 | 오래 된-새로운 | .87 | .01 | 64.05 | .00*** | |
후부 | 오래 된-새로운 | .69 | .01 | 57.75 | .00*** |
표 2: 뇌 영역 전반에 걸친 이전/새로운 효과에 대한 사후 테스트 결과: 결합, 확신 및 의심 데이터 세트. 사후 분석을 사용하면 p < .001 (***)에서 유의합니다.
이 연구는 EEG 데이터 수집 및 분석을 위한 파이프라인을 제시하며, 이전에 학습된 화자 정체성을 인식하는 데 중점을 둡니다. 본 연구는 학습 단계와 인식 단계 간의 차이를 다루는데, 여기에는 말하기 내용22 과 운율10의 차이도 포함된다. 이 디자인은 대명사 및 아나포릭 처리(anaphoric processing)와 같은 심리언어학을 포함한 다양한 연구 분야에 적용할 수 있다(41).
훈련-테스트 패러다임은 음성 학습과 같은 특정 주제에 대한 참가자의 학습 결과를 평가하는 데 사용되는 고전적인 실험 설계입니다42,43. 이 패러다임은 참가자가 특정 정보를 얼마나 잘 학습했는지를 평가합니다(정확성에 반영됨)10. 이를 통해 연구원은 훈련 및 테스트 단계 중 다양한 운율과 같은 통제된 실험 조건에서 변수를 점진적으로 도입하여 음성 인식 정확도에 미치는 영향을 이해할 수 있습니다(예: VTL/F0 변조 음성23, 두려움 대 중립10 또는 이 연구에서 의심 대 확신).
그러나 이 패러다임에는 한계가 있습니다. 통제된 학습 조건이 더 가변적인 테스트 조건을 반영하지 않을 수 있으므로 학습 환경과 테스트 환경 간의 차이는 실험 결과의 유효성에 영향을 미칠 수 있습니다. 예를 들어, 훈련 세션은 30% 대 70%44와 같은 비례 차이가 아닌 단일 운율을 사용합니다. 이러한 불균형을 해결하기 위해 보다 다양한 학습 환경을 보장하면 화자가 청취자와 상호 작용하면서 다양한 운율을 사용하는 실제 시나리오를 더 잘 복제할 수 있습니다. 또한 이 연구는 여러 단계와 정교한 프로그래밍(R Studio, MATLAB 및 Python과 같은 도구 사용)을 포함하는 실험 설계의 복잡성이 초보자에게 도전적일 수 있음을 인정합니다.
주요 통찰력은 적절한 숙지와 점검 단계의 중요성을 강조합니다. Xu와 Armony의 연구는 청취자가 충분한 훈련과 확률 수준10 이상의 확인 없이는 오래된 화자의 정체성을 식별하는 데 어려움을 겪는다는 점을 강조합니다. 또한, Zaske et al.은 LPC old/new 효과가 다른 텍스트가 아닌 동일한 텍스트가 반복될 때만 존재한다는 것을 발견했다22. 이 연구에서 점검 단계의 구현은 다른 텍스트 자극에서도 이전/새로운 ERP 효과의 지속성을 보여주었으며, 이는 fMRI 연구의 주장을 뒷받침한다21. 이 연구는 훈련-테스트 기반 패러다임의 경우 check 세션을 삽입하는 것이 중요하다는 것을 시사합니다. 이를 통해 청취자는 화자의 음향 정체성에 대한 강력한 인상을 형성할 수 있으며, 화자를 이름(23)과 같은 특정 기호와 연관시킬 수 있습니다. 화자의 표현에 대한 충분한 학습이 없다면, 청취자는 화자의 내적 변화에 적응하는 데 어려움을 겪을 수 있다10.
이 연구는 또한 화자 인식을 위한 구속력 있는 단서로서 운율의 역할을 관찰하였다45. 운율이 오래된 화자의 인식을 방해할 수 있다는 이전의 견해와 달리, 이 연구는 자신감 있고 의심스러운 운율 조건에서 구/신 효과가 존재한다는 것을 발견했습니다. 이 강력한 효과는 화자 인식에서 운율의 변조 역할을 시사합니다. 추가 분석 결과, 프로소디 상태에 따라 전방 영역 활성화의 차이가 밝혀졌습니다. 자신감 있는 운율은 의심스런 운율에 비해 전방 영역에서 이전/새로운 효과의 낮은 수준을 이끌어냈습니다. 이 발견은 자신감 있는 말하기는 성도 길이가 길어지고 기본 주파수가 낮아짐에 따라 화자 식별을 더 어렵게 만들 수 있음을 시사하며, 이는 잠재적으로 청취자의 주의를 증가시킬 수 있음을 시사한다11,29.
이 연구의 설계는 안면인식장애(prosopagnosia) 또는 성분인식장애(phonagnosia)가 있는 환자군과 같은 환자 집단의 인식 장애에 대한 향후 조사에 정보를 제공할 수 있습니다46,47. 또한, 자폐 스펙트럼 장애(autism spectrum disorders)를 가진 개인과 같이 주의 집중 시간이 짧은 참가자를 수용하기 위한 수정은 연구 접근성을 향상시킬 수 있다48.
또한, 이 패러다임은 화자 인식을 넘어 심리언어학 연구에서 대명사 처리와 동화적 이해를 조사하는 것으로 확장됩니다. Coopmans와 Nieuwland41은 신경 진동 동기화 패턴이 아나포어 이해에서 선행 활성화와 통합을 어떻게 구별하는지 보여주며, 이는 정체성 관련 단서에 대한 본 연구의 탐구와 일치합니다. 이 논문에서는 의사소통 스타일(예: 직속 또는 반어적 진술), 어순(SOV(Subject-Object-Verb) 또는 OSV(Object-Subject-Verb) 문장 구조 44,45,49,50), 음성 표현 유형(자신감 있는 운율 대 의심 운율)을 모두 포함합니다.
공개할 정보는 없습니다.
이 연구는 중국 자연 과학 재단 (Grant No. 31971037)의 지원을 받았습니다. 상하이 교육 발전 재단 (Shanghai Education Development Foundation)과 상하이시 교육위원회 (Shanghai Municipal Education Committee)가 지원하는 Shuguang 프로그램 (보조금 번호 20SG31); 상하이 자연과학재단(22ZR1460200); Shanghai International Studies University (2022113001)의 감독자지도 프로그램; 중국 국가사회과학재단(National Social Science Foundation of China)의 주요 프로그램(보조금 번호 18ZDA293).
Name | Company | Catalog Number | Comments |
64Ch Standard BrainCap for BrainAmp | Easycap GmbH | Steingrabenstrasse 14 DE-82211 | https://shop.easycap.de/products/64ch-standard-braincap |
Abrasive Electrolyte-Gel | Easycap GmbH | Abralyt 2000 | https://shop.easycap.de/products/abralyt-2000 |
actiCHamp Plus | Brain Products GmbH | 64 channels + 8 AUX | https://www.brainproducts.com/solutions/actichamp/ |
Audio Interface | Native Instruments GmbH | Komplete audio 6 | https://www.native-instruments.com/en/products/komplete/audio-interfaces/komplete-audio-6/ |
Foam Eartips | Neuronix | ER3-14 | https://neuronix.ca/products/er3-14-foam-eartips |
Gel-based passive electrode system | Brain Products GmbH | BC 01453 | https://www.brainproducts.com/solutions/braincap/ |
High-Viscosity Electrolyte Gel | Easycap GmbH | SuperVisc | https://shop.easycap.de/products/supervisc |
JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기
허가 살펴보기This article has been published
Video Coming Soon
Copyright © 2025 MyJoVE Corporation. 판권 소유