ADVERTISEMENTs

चेहरे के भाव, आवाज कैसे समझता है दिमाग, वैज्ञानिक केशव शर्मा ने किया खुलासा

ये रिसर्च जर्नल ऑफ न्यूरोसाइंस में छपी है। ये दिखाती है कि वेंट्रोलेटरल प्रीफ्रंटल कॉर्टेक्स ( VLPFC) चेहरे के हाव-भाव, आवाज और दूसरे सामाजिक संकेतों को कैसे मिलाता है, उन्हें कैसे जोड़ता है। 

भारतीय मूल के न्यूरोसाइंटिस्ट केशव शर्मा ने एक स्टडी की अगुवाई की है। / keshovsharma.com

भारतीय मूल के न्यूरोसाइंटिस्ट केशव शर्मा ने एक स्टडी की अगुवाई की है। इस स्टडी में पता चला है कि दिमाग का एक खास हिस्सा सोशल क्यूज (सामाजिक संकेतों ) को कैसे प्रोसेस करता है। ये रिसर्च जर्नल ऑफ न्यूरोसाइंस में छपी है। ये दिखाती है कि वेंट्रोलेटरल प्रीफ्रंटल कॉर्टेक्स ( VLPFC) चेहरे के हाव-भाव, आवाज और दूसरे सामाजिक संकेतों को कैसे मिलाता है, उन्हें कैसे जोड़ता है। 

रोचेस्टर यूनिवर्सिटी के डेल मोंटे इंस्टिट्यूट फॉर न्यूरोसाइंस में पोस्टडॉक्टोरल रिसर्चर केशव शर्मा ने इस स्टडी को आगे बढ़ाया। इसमें एक प्रकार के बंदर (rhesus macaques) का इस्तेमाल करके न्यूरल रिस्पॉन्स का विश्लेषण किया गया। टीम ने 400 से ज्यादा न्यूरॉन्स की एक्टिविटी VLPFC में रिकॉर्ड की। ये सब तब हुआ जब जानवर बंदर के वीडियो देख रहे थे। इन वीडियोज में बंदर दोस्ताना, आक्रामक या फिर नॉर्मल आवाज और चेहरे के भाव दिखा रहे थे। 

अलग-अलग न्यूरॉन्स ने सामाजिक उत्तेजनाओं के प्रति अलग-अलग और जटिल प्रतिक्रियाएं दिखाईं। इस वजह से शुरू में डेटा को समझना मुश्किल था। लेकिन, शर्मा की टीम ने मशीन लर्निंग टेक्निक्स की मदद ली ताकि तंत्रिका आबादी की सामूहिक गतिविधि का अध्ययन कर सकें। इस मॉडल ने वीडियो में बंदर के भाव और पहचान को सफलतापूर्वक डिकोड किया। इससे साबित हुआ कि न्यूरॉन्स मिलकर सामाजिक संकेतों को प्रोसेस करते हैं। 

शर्मा ने कहा, 'हमने अपनी स्टडी में डायनामिक और ज्यादा जानकारी वाले स्टिमुली का इस्तेमाल किया और हमें सिंगल न्यूरॉन्स से जो रिस्पॉन्स मिले वो बहुत कॉम्प्लेक्स थे। शुरुआत में, डेटा को समझना मुश्किल था। हमें तब समझ आया जब हमने देखा कि पॉपुलेशन एक्टिविटी (जनसंख्या गतिविधि) हमारे स्टिमुली में मौजूद सोशल इन्फॉर्मेशन से कैसे जुड़ी हुई हैं। हमारे लिए, यह पेड़ों की एक भीड़ के बजाय आखिरकार जंगल को देखने जैसा था'

इस खोज से पता चलता है कि VLPFC दिमाग के सामाजिक संचार नेटवर्क का एक अहम हिस्सा है। ये रोमांस्की लैब के पहले के रिसर्च को और आगे बढ़ाता है। उस रिसर्च में इसी हिस्से की भूमिका चेहरे और आवाज की जानकारी को मिलाने में बताई गई थी।

इस रिसर्च को नेशनल इंस्टिट्यूट्स ऑफ हेल्थ (NIH) और श्मिट प्रोग्राम फॉर इंटीग्रेटिव न्यूरोसाइंस ने सपोर्ट किया था। इसके दूसरे ऑथर्स रोचेस्टर यूनिवर्सिटी मेडिकल सेंटर से मार्क डिल्ट्ज, एस्ट्रोबॉटिक टेक्नोलॉजी से थियोडोर लिंकन और मियामी यूनिवर्सिटी के स्कूल ऑफ मेडिसिन एरिक अल्बुकर्क हैं।

 

 

Comments

ADVERTISEMENT

 

 

 

ADVERTISEMENT

 

 

E Paper

 

 

 

Video

 

Related