City Subscribers (FB+App) | Website (Direct+Google) | Total | ||
2772 | 15 | 2787 |
***Scroll down to the bottom of the page for above post viewership metric definitions
प्राकृतिक भाषा प्रसंस्करण (एनएलपी (Natural language processing (NLP) कम्प्यूटर
साइंस, सूचना इंजीनियरिंग, और कृत्रिम बुद्धि का एक उप-क्षेत्र है जो कंप्यूटर और मानव
(प्राकृतिक) भाषाओं के बीच बातचीत से संबंधित है। वैज्ञानिकों को प्राकृतिक मानव भाषा को
उस बिंदु तक समझने में दशकों लग गए हैं जहां एलेक्सा ((Alexa), अमेज़ॅन द्वारा प्राकृतिक
भाषा प्रसंस्करण प्रणाली जैसे आवाज-सक्रिय इंटरफेस) उपभोक्ताओं द्वारा सफलतापूर्वक
स्वीकार किया गया हैं। अब तक हमें यह सीधी और सरल प्रक्रिया लगती थी, लेकिन
प्राकृतिक भाषा प्रसंस्करण में जो भी सफलता मिली है, उसके लिए पहले अनगिनत
विफलताएं का सामना करना पड़ा हैं।प्रसिद्ध ब्रिटिश गणितज्ञ एलन ट्यूरिंग (Alan Turing)
ने अपने लैंडमार्क 1950 के लेख "कम्प्यूटिंग मशीनरी एंड इंटेलिजेंस" में, पहली बार मशीन
की बुद्धिमत्ता को "सीखने" की क्षमता के माध्यम से मापने का विचार प्रस्तावित किया था।
उनकी विधि, जिसे ट्यूरिंग टेस्ट के नाम से जाना जाता है, विभिन्न प्रकार के कारकों के
माध्यम से मशीन इंटेलिजेंस को मापने और विकसित करने के लिए प्रोग्रामर के लिए
मैट्रिक्स (Metrics) का एक सेट प्रदान करता है।उन्होंने कहा कि यदि टेलीप्रिंटर के उपयोग
के माध्यम से एक मशीन बातचीत का हिस्सा हो सकती है, और यह पूरी तरह से एक मानव
की नकल करती है, इसलिए मशीन को सोचने में सक्षम माना जा सकता है।इसके तुरंत बाद,
1952 में, हॉजकिन-हक्सले मॉडल (Hodgkin-Huxley model ) ने दिखाया कि कैसे
मस्तिष्क एक विद्युत नेटवर्क बनाने में न्यूरॉन्स का उपयोग करता है। इन घटनाओं ने
आर्टिफिशियल इंटेलिजेंस (एआई) (artificial intelligence (AI)), प्राकृतिक भाषा प्रसंस्करण
(एनएलपी), और कंप्यूटर के विकास के विचार को प्रेरित करने में मदद की।
प्राकृतिक भाषा प्रसंस्करण (एनएलपी) आर्टिफिशियल इंटेलिजेंस का एक पहलू है जो कंप्यूटर
को मानव भाषाओं को समझने, व्याख्या करने और उपयोग करने में मदद करता है।
एनएलपी कंप्यूटर को मानव भाषा का उपयोग करके लोगों के साथ संवाद करने की अनुमति
देता है।प्राकृतिक भाषा प्रसंस्करण कंप्यूटर को शब्द पढ़ने, भाषा सुनने और उसकी व्याख्या
करने की क्षमता भी प्रदान करता है।एनएलपी उस भाषा को पढ़ता और समझता है जिसे
आप इनपुट करते हैं। एकीकृत सांख्यिकीय मॉडल का उपयोग करते हुए, मशीन मानव भाषा
को कंप्यूटर भाषा में परिवर्तित करती है। असल में, मशीन सभी शब्दों को छोटी इकाइयों
(जिसे टोकन (शब्द, अवधि, आदि) कहा जाता है,) में तोड़ देती है। प्रक्रिया को आमतौर पर
भाषा-से-पाठ अनुवाद के रूप में जाना जाता है। संग्रहीत भाषा का उपयोग करते हुए, मशीन
आपके द्वारा दर्ज किए गए शब्दों का पता लगाने की कोशिश करती है।
1958 में, प्रोग्रामिंग भाषा LISP (लोकेटर/आइडेंटिफ़ायर सेपरेशन प्रोटोकॉल-
Locator/Identifier Separation Protocol), एक कंप्यूटर भाषा जो आज भी उपयोग में है,
जॉन मैकार्थी (John McCarthy) द्वारा जारी की गई थी। 1964 में, एलिज़ा (ELISA), एक
"टाइपराइट", जिसे प्रतिबिंब तकनीकों का उपयोग करके एक मनोचिकित्सक का अनुकरण
करने के लिए विकसित किया गया था(इसने वाक्यों को पुनर्व्यवस्थित करने और अपेक्षाकृत
सरल व्याकरण के नियमों का पालन करने की क्षमता थी)।इसके अलावा, 1964 में, यूएस
नेशनल रिसर्च काउंसिल (NRC-US National Research Council) ने स्वचालित भाषा
प्रसंस्करण सलाहकार समिति (Automatic Language Processing Advisory
Committee), या ALPAC बनाया। इस समिति को प्राकृतिक भाषा प्रसंस्करण अनुसंधान की
प्रगति का मूल्यांकन करने का काम सौंपा गया 1966 में, NRC और ALPAC ने
आर्टिफिशियल इंटेलिजेंस और प्राकृतिक भाषा प्रसंस्करण पर अनुसंधान के वित्तपोषण को रोक
लगाना शुरू किया, क्यूंकि बारह वर्षों के शोध के बाद और $20 मिलियन डॉलर की लागत
के बाद महसूस किया गया की मशीनी अनुवाद अभी भी मानव अनुवादों की तुलना में अधिक
महंगे थे, और अभी भी ऐसे कोई कंप्यूटर नहीं थे जो बुनियादी बातचीत करने में सक्षम हो।
1966 में, आर्टिफिशियल इंटेलिजेंस एंड नेचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) अनुसंधान को
कई लोगों द्वारा इसका अंत मान लिया गया था। लेकिन कुछ ने अपनी टूटी हुई अपेक्षाओं
से उभर कर फिर से शुरुआत की, लेकिन इस शुरुआत को करने में उनको लगभग चौदह वर्ष
(1980 तक) लगे। भाषा विज्ञान और सांख्यिकी का मिश्रण, जो प्रारंभिक एनएलपी अनुसंधान
में लोकप्रिय था, को शुद्ध आंकड़ों के साथ बदल दिया गया था। इससे 1980 के दशक में
एक मौलिक पुनर्रचना की शुरुआत हुई , जिसमें गहन विश्लेषण की जगह सरल सन्निकटन
थे, और मूल्यांकन प्रक्रिया अधिक कठोर हो गई थी, 1980 के दशक में, प्राकृतिक भाषा
प्रसंस्करण बहुत धीरे-धीरे विकसित हुआ। 1980 के दशक तक, अधिकांश एनएलपी सिस्टम
जटिल, "हस्तलिखित" नियमों का उपयोग करते थे। लेकिन 1980 के दशक के अंत में,
एनएलपी में एक क्रांति आई जोकि कम्प्यूटेशनल शक्ति (computational power) की
निरंतर वृद्धि और मशीन लर्निंग एल्गोरिदम (learning algorithm) में बदलाव का परिणाम
था। ये सांख्यिकीय मॉडल, संभाव्य निर्णय लेने में सक्षम हैं। 1990 के दशक में, प्राकृतिक
भाषा प्रक्रियाओं के विश्लेषण के लिए सांख्यिकीय मॉडल की लोकप्रियता नाटकीय रूप से
बढ़ी।
2001 में, योशियो बेंगियो (Yoshio Bengio) और उनकी टीम ने फीड-फॉरवर्ड न्यूरल नेटवर्क
(feed-forward neural network) का उपयोग करते हुए पहले न्यूरल "भाषा" मॉडल का
प्रस्ताव रखा। फीड-फॉरवर्ड न्यूरल नेटवर्क एक कृत्रिम तंत्रिका नेटवर्क का वर्णन करता है जो
एक चक्र बनाने के लिए कनेक्शन का उपयोग नहीं करता है।वर्ष 2011 में, एप्पल (Apple)
के सीरी (Siri) को सामान्य उपभोक्ताओं द्वारा उपयोग किए जाने वाले दुनिया के पहले
सफल NLP/AI सहायकों में से एक के रूप में जाना जाता है। सिरी के भीतर, ऑटोमेटेड
स्पीच रिकग्निशन मॉड्यूल (Automated Speech Recognition Module) अपने धारक के
शब्दों को डिजिटल रूप से व्याख्या की गई अवधारणाओं में अनुवादित करता है।2012 के
बाद से, जब अंततः अमेज़ॅन (Amazon) की कृत्रिम बुद्धिमत्ता प्रणाली एलेक्सा (Alexa)
बनी, तो पाया गया कि इसकी क्षमताओं में जबरदस्त वृद्धि हुई है और उस विकास का श्रेय
मशीन लर्निंग को जाता है।
अब सवाल उठता है की एलेक्सा कैसे काम करती है? तो हम बता दे जब आप एलेक्सा से
पूछते हैं, "आज मौसम कैसा रहने वाला है," डिवाइस आपकी आवाज रिकॉर्ड करता है। फिर
वह रिकॉर्डिंग इंटरनेट पर अमेज़ॅन की एलेक्सा वॉइस सर्विसेज (Alexa Voice Services) को
भेजी जाती है जो रिकॉर्डिंग को समझ में आने वाले कमांड में पार्स करती है। फिर, सिस्टम
प्रासंगिक आउटपुट को आपके डिवाइस पर वापस भेजता है। इसके बाद एलेक्सा आपको
मौसम का पूर्वानुमान बताती है, बिना आपको यह पता चले कि इस सिस्टम में आपके और
उसके बीच कोई भी था।इसका मतलब यह है कि यदि आपका इंटरनेट कनेक्शन ख़राब हो
जाता हैं तो एलेक्सा काम नहीं करगी।एनएलपी कंप्यूटर को बुद्धिमान बनाने का प्रयास
करता है ताकि मानव यह विश्वास कर सके कि वे दूसरे मानव के साथ बातचीत कर रहे हैं।
एनएलपी एल्गोरिथ्म के आधार पर प्रत्येक स्पेक्ट्रोग्राम (spectrogram) का विश्लेषण और
प्रतिलेखन किया जाता है जो किसी भाषा की शब्दावली में सभी शब्दों की संभावना की
भविष्यवाणी करता है। किसी भी संभावित त्रुटिको ठीक करने में मदद के लिए इसमें एक
प्रासंगिक स्तर जोड़ा जाता है। यहां एल्गोरिथम दोनों बातों पर विचार करता है, और दी गई
भाषा के अपने ज्ञान के आधार पर सबसे संभावित अगला शब्द आगे भेजता है। अंत में,
डिवाइस सर्वोत्तम संभव प्रतिक्रिया को मौखिक रूप दे देता है।
आपको याद ही होगा की हम बचपन में भाषा कैसे सीखते हैं। बच्चे जीवन के पहले दिन से
ही अपने चारों ओर प्रयुक्त शब्दों को सुनते हैं। माता-पिता बच्चे से बात करते हैं, यह जानते
हुए कि वे अभी तक जवाब नहीं दे सकते हैं, लेकिन भले ही बच्चा जवाब नहीं दे सकता है,
परन्तु वे सभी प्रकार के मौखिक संकेतों को अवशोषित करते हैं, जिसमें आवाज़ का उतार-
चढ़ाव, विभक्ति और उच्चारण शामिल होता हैं। यह इनपुट चरण माना जाता है। माता-पिता
भाषा का उपयोग कैसे करते हैं, इसके आधार पर बच्चे का मस्तिष्क पैटर्न और कनेक्शन
बना रहता है। हमें बाते समझने और करने के लिए पांच या छह साल लगते हैं, और फिर
हम अगले 15 साल स्कूल में अधिक डेटा एकत्र करने और अपनी शब्दावली बढ़ाने में बिताते
हैं। वॉइस रिकग्निशन टेक्नोलॉजी (Voice Recognition Technology) भी इसी तरह से
काम करती है।
संदर्भ:
https://bit.ly/3CuMhuS
https://bit.ly/3TbGIYt
https://bit.ly/3TiM97E
https://bit.ly/3clHpO8
चित्र संदर्भ
1. महिला से बात करती रोबोट सोफिया को दर्शाता एक चित्रण (flickr)
2. गढ़नाएँ करते हुए रोबोट को दर्शाता एक चित्रण (wikimedia)
3. विभिन्न प्रकार की प्रोग्रामिंग भाषाओं को दर्शाता एक चित्रण (Flickr)
4. कृत्रिम बुद्धिमत्ता प्रणाली एलेक्सा (Alexa) को दर्शाता एक चित्रण (flickr)
5. मशीन लर्निंग तकनीक को दर्शाता एक चित्रण (wikimedia)
© - , graphics, logos, button icons, software, images and its selection, arrangement, presentation & overall design, is the property of Indoeuropeans India Pvt. Ltd. and protected by international copyright laws.