Transcript for:
ट्रांसफार्मर आर्किटेक्चर का विस्तृत अध्ययन

हाय गाइ माय नेम इज नितेश एंड यू वेलकम टू माय youtube1 डेज ऑफ डीप लर्निंग प्लेलिस्ट कंटिन्यू करने वाले हैं सो अभी तक का प्रोग्रेस मैं आपको बता देता हूं हम ट्रांसफॉर्मर्स आर्किटेक्चर पढ़ रहे हैं और हम उसके बिल्कुल मिडवे पॉइंट पे हैं इसका मतलब यह है कि हमने इनकोडर का आर्किटेक्चर पूरी तरीके से समझ लिया है नाउ वी आर मूविंग फॉरवर्ड टू द डिकोडर आर्किटेक्चर एंड डिकोडर आर्किटेक्चर में हम लोग आज एक बहुत स्पेसिफिक पार्ट पे जूम इन करने वाले हैं और उस पार्ट का नाम है मास्क मल्टीहेड अटेंशन अ ऑनेस्टली इट्स अ डिफरेंट फ्लेवर ऑफ मल्टी आइड अटेंशन और सेल्फ अटेंशन यू कैन से बट इसमें एक छोटा सा डिटेल है जिसका कांसेप्चुअल अंडरस्टैंडिंग आपको होना बहुत जरूरी है आगे बढ़ने के पहले सो आई एम सुपर एक्साइटेड फॉर दिस वीडियो लेट्स स्टार्ट सो गाइस वीडियो स्टार्ट करने के पहले एक छोटा सा रीकैप ले लेते हैं अभी तक हमने ट्रांसफॉर्मर्स के ऊपर 10 वीडियोस अपलोड किए हैं इस चैनल पे और इन 10 वीडियोस में क्या हुआ है वह मैं आपको एक बार बताना चाहता हूं सो ट्रांसफॉर्मर आर्किटेक्चर हमने स्टार्ट किया था और मैंने आपको स्टार्ट करते टाइम बताया था कि मेरे दिमाग में यह जो टॉपिक है ट्रांसफॉर्मर्स यह बहुत इंपॉर्टेंट है और शायद ही आपको भी पता है बिकॉज अभी जो भी आप एआई के फील्ड में एडवांसमेंट्स देख रहे हो मोस्ट ऑफ देम आर ड्रिवन बाय ट्रांसफॉर्मर अगर आप उसको खोल करके देखोगे तो शायद अंदर ट्रांसफॉर्मर ही यूज हो रहा होगा तो उस सेंस में मेरे दिमाग में इस टॉपिक को बहुत इंपॉर्टेंस मिला हुआ है एंड दैट्ची बहुत अच्छे से पढ़ाऊंगा भले ही थोड़ा टाइम लगे सो हमने क्या किया था हमने सबसे पहले यह एस्टेब्लिश किया था कि ट्रांसफॉर्मर आर्किटेक्चर को आप दो पार्ट्स में डिवाइड कर सकते हो एक होता है इनकोडर और दूसरा होता है डिकोडर ठीक है और हम सबसे पहले एनकोड पढ़ने निकले थे और मैंने वहां पर आपको एक चीज और बताई थी कि यह आर्किटेक्चर थोड़ा सकता है कि आपको चीजें समझ में ना आए तो हमने एक अल्टरनेट फिलॉसफी यूज की पढ़ाई करने की और वो फिलॉसफी यह थी कि राद देन पूरी चीज एक साथ समझने के व्हाट इफ हम पहले बिल्डिंग ब्लॉक समझे और फिर जब बिल्डिंग ब्लॉक समझ में आ जाए तो फिर पूरी चीज समझने को निकले हमने यही फिलॉसफी यूज की तो हमने इस पूरे 10 वीडियोस की जर्नी में छोटे-छोटे टॉपिक्स कवर किए जैसे कि सेल्फ अटेंशन और मल्टीहेड अटेंशन क्या होता है पोजीशनल इनकोडिंग क्या होती है और नॉर्मलाइजेशन क्या होता है एक्सेट्रा यह सारी चीजें हमने कवर की और जब हमें यह सारी चीजें समझ में आ गई फिर हमने लास्ट वीडियो में पूरा का पूरा इनकोडर का आर्किटेक्चर डिकोड करके समझ लिया एंड आई रियली होप आपको समझ में भी आया अब हमारी जो जर्नी है वह 50 पर कवर हो चुकी है इनकोडर हमें समझ में आ चुका है और % बाकी है अब आपको यह बताते हुए मुझे बहुत दुख हो रहा है कि यह जो 50 % की जर्नी बाकी है यह थोड़ी और ज्यादा डिफिकल्ट रहने वाली है बिकॉज गेस व्हाट जो ट्रांसफार्मर का डिकोडर है वह थोड़ा सा आर्किटेक्चरल स्पीकिंग और डिफिकल्ट है ठीक है और वो शायद आपको इस डायग्राम में भी दिखाई दे रहा होगा देख के भी ऐसा लग रहा है कि यहां पर कुछ ज्यादा चीजें चल रही है तो व्हाट आई विल डू इज कि मैं फिर से वही सेम फिलॉसफी फॉलो करूंगा जो मैंने इनकोडर में फॉलो की व्हाट आई विल डू इज कि राद देन सीधे एक वीडियो में डिकोडर पढ़ाने के मैं आपको छोटे-छोटे वीडियोस में जो बिल्डिंग ब्लॉक्स है डिकोडर के वह पहले समझाऊ और फिर जब हम वह समझ जाएंगे तो एक सिंगल शॉर्ट वीडियो में मैं आपको पूरा डिकोडर आर्किटेक्चर समझा दूंगा ठीक है अब अच्छी बात यह है कि डिकोडर में सब कुछ नया नहीं है व्हिच मींस कि बहुत सारी चीजें इनकोडर से रिपीट हुई है तो वो अच्छी बात है ट जैसे कि यहां पर आपको मल्टीहेड अटेंशन दिखाई दे रहा होगा यहां पे भी आपको पोजीशनल इनकोडिंग दिखाई दे रहा होगा यहां पे भी आपको ऐड एंड नॉर्म लेयर दिखाई दे रहा होगा यहां पे भी आपको फीड फॉरवर्ड लेयर दिखाई दे रहा होगा तो अ लॉट ऑफ थिंग्स आर एक्चुअली रिपीटिंग तो वह हमें दोबारा मेहनत करने की जरूरत नहीं है बट कुछ नई चीजें आपको यहां पे देखने को मिल रही होंगी जैसे कि यह वर्ड मास्क सो यहां पर एक दूसरा फ्लेवर ऑफ सेल्फ अटेंशन यूज़ होता है जिसको हम मास्ट सेल्फ अटेंशन बोलते हैं इसके अलावा एक और चीज अगर आप नोटिस करो कि यहां पर जो अटेंशन यूज हुआ है इसमें एक एरो तो डिकोडर से आ रहा है बट दो एरोज इनकोडर से आ रहे हैं तो यह भी एक अलग फ्लेवर ऑफ सेल्फ अटेंशन है जिसको हम क्रॉस अटेंशन बोलते हैं तो यही दो व मेजर बिल्डिंग ब्लॉक्स हैं जो हमें समझने पड़ेंगे डिकोडर का आर्किटेक्चर समझने के लिए तो आज का जो वीडियो है वह मैं पूरा का पूरा डेडिकेट कर रहा हूं यह मास्क मल्टीहेड अटेंशन समझाने के लिए एंड ट्रस्ट मी इस वीडियो को दे खने के बाद आपको इस कांसेप्ट में कोई परेशानी नहीं होगी मैं आपको एकदम वाय लेवल आंसर्स दूंगा जिससे आपके दिमाग में एक बहुत डीप इनट्यूशन आ जाएगा कि क्यों डिकोडर के अंदर मास्क सेल्फ अटेंशन की जरूरत पड़ती है और उसके अलावा व्ट और हाउ तो हम कवर करेंगे ही तो आई रियली होप मैंने इस वीडियो का जो पर्पस है वह आपके सामने क्लियर कर दिया है अब लेट्स स्टार्ट द वीडियो अब गाइस मास्क सेल्फ अटेंशन समझाने के पहले मैं आपको एक सेंटेंस दिखाना चाहता हूं यह सेंटेंस बहुत स्पेशल है इस सेंटेंस की खासियत क्या है कि अगर आपने यह सेंटेंस समझ लिया अच्छी तरीके से तो फिर आपको मास्टड सेल्फ अटेंशन भी समझ में आ जाएगा सेंटेंस क्या है पढ़ के सुनाता हूं द ट्रांसफॉर्मर डिकोडर इज एन ऑटो रिग्रेसिव या फिर ऐसे बोल सकते हो द ट्रांसफॉर्मर डिकोडर इज एन ऑटो रिग्रेसिव मॉडल एट इनफर टाइम एंड नॉन ऑटो रिग्रेस सिर्फ एट ट्रेनिंग टाइम अब आई नो आप क्या बोल रहे होगे आप बोल रहे होगे कि सर आपने तो मूड ही खराब कर दिया वीडियो की शुरुआत में थोड़ी आसान सी चीजें पढ़ाई जाती हैं आपने तो यह बहुत भारी भरकम सेंटेंस हमारे ऊपर छोड़ दिया क्या होता है ऑटोरिग्रेसिव इनरेंट क्या होता है यह सब हमें नहीं पता तो एक काम करते हैं पहले ना कुछ जो टर्म्स यहां पर यूज हो रहे हैं उनको मैं सिंपलीफाई करके बताता हूं बिकॉज बहुत इंपॉर्टेंट है सो यहां पर एक सिंपल स बात लिखी हुई है कि जो ट्रांसफार्मर्स का डिकोडर होता है वो इफर के टाइम पे ऑटोरिग्रेसिव होता है और ट्रेनिंग के टाइम पे नॉन ऑटो रिग्रेसिव होता है यही सेंटेंस है अब सबसे पहले एक सिंपल सी चीज क्लेरिफाई करना चाहूंगा कि इनफर क्या होता है इंफर का सिंपल मतलब है प्रेडिक्शन इसका मतलब यह हुआ कि जब आप ट्रांसफॉर्मर्स को यूज करके प्रेडिक्शन कर रहे होते हो तो उस वक्त ट्रांसफॉर्मर का डिकोडर ऑटो रिग्रेसिव होता है या एक ऑटो रिग्रेसिव मॉडल की तरह बिहेव करता है और जब ट्रांसफॉर्मर की ट्रेनिंग चल रही होती है तब वह नॉन ऑटोरिग्रेसिव मॉडल की तरह बिहेव करता है ठीक है अब आपके दिमाग में बस एक ही डाउट रह गया और वह है कि ऑटोरिग्रेसिव का क्या मतलब है तो जल्दी से समझते हैं कि ऑटो रिग्रेसिव मॉडल क्या होता है सो ऑटो रिग्रेसिव मॉडल एक्चुअली इकोनॉमिक्स का कांसेप्ट है और अगर आप बहुत स्ट्रिक्टली मशीन लर्निंग के डोमेन में बात करना चाहते हो तो यह टाइम सीरीज से आया है टाइम सीरीज में बहुत सारे मॉडल्स जो यूज होते हैं वह ऑटो रिग्रेसिव मॉडल्स होते हैं बट मैं टाइम सीरीज में नहीं घुसना चाहता मैं आपको डीप लर्निंग के कॉन्टेक्स्ट में समझाना चाहता हूं कि ऑटोरिग्रेसिव मॉडल का क्या मतलब है सो मेरे पास एक सिंपल डेफिनेशन है मैं उसको यूज करना चाहता हूं इस पूरी चीज को एक्सप्लेन करने के लिए सो इन द कॉन्टेक्स्ट ऑफ डीप लर्निंग ऑटोरिग्रेसिव मॉडल्स आर अ क्लास ऑफ मॉडल्स दैट जनरेट डेटा पॉइंट्स इन अ सीक्वेंस बाय कंडीशनिंग ईच न्यू डेटा पॉइंट ऑन द प्रीवियसली जेनरेटेड पॉइंट्स सिंपल शब्दों में यह मतलब हुआ कि मान लो आपने एक मशीन लर्निंग मॉडल बनाया जिसका काम था स्टॉक प्रेडिक्शन हर दिन स्टॉक का क्या वैल्यू है यह प्रिडिक्ट करके देता है हमारा यह मशीन लर्निंग मॉडल तो मान लो इसने वेनसडे को प्रिडिक्ट किया कि स्टॉक का वैल्यू 29 है थर्सडे को प्रिडिक्ट किया कि स्टॉक का वैल्यू 30 है अब फ्राइडे को उसको प्रिडिक्ट करना है कि स्टॉक का क्या वैल्यू होना चाहिए तो एक ऑटो रिग्रेसिव मॉडल क्या करता है कि किसी पर्टिकुलर दिन प्रेडिक्शन करने के लिए वो उसने पिछले दिन क्या प्रेडिक्शन किया है उसकी हेल्प लेता है इसका मतलब ये हुआ कि फ्राइडे को स्टॉक की वैल्यू क्या होगी व डिपेंड करेगी कि थर्सडे को स्टॉक की वैल्यू क्या है और वेनसडे को स्टॉक की वैल्यू क्या है राइट तो एक बार वापस अगर आप डेफिनेशन में जाओ तो यहां पे देखो क्लीयरली लिखा हुआ है ऑटोरिग्रेसिव मॉडल्स आर अ क्लास ऑफ मॉडल्स दैट जनरेट डेटा पॉइंट्स इन अ सीक्वेंस बाय कंडीशनिंग ईच न्यू डेटा पॉइंट फ्राइडे वाला डेटा पॉइंट ऑन प्रीवियसली जनरेट डेटा पॉइंट्स वेनसडे और थर्सडे वाले डेटा पॉइंट के बेसिस पर अब ऑनेस्टली अगर मैं आपको एक बात बताऊं भले ही आपने यह नाम यह टर्म पहली बार पढ़ा कि ऑटो रिग्रेसिव मॉडल करके कुछ होता है बट आप ऐसी चीज ऐसा मॉडल पहले देख चुके हो लेट मी टेक यू बैक टू द ओरिजिनल इनकोडर डिकोडर आर्किटेक्चर जो हमने कुछ वीडियोस पहले पढ था अगर आपको याद हो कुछ 10 12 वीडियोस पहले मैंने आपको सबसे बेसिक वाला एनकोड डिकोडर आर्किटेक्चर पढ़ाया था जो इलिया स्कच स्कवर का जो आर्किटेक्चर था सीक टू सीक नेटवर्क वाला वहां पर हमने एक बहुत सिंपल इनकोडर डिकोडर पढ़ा था जहां पर एनकोड में भी एलएसटीएम यूज होता था और डिकोडर में भी एलएसटीएम यूज होता था और हमने एक लैंग्वेज ट्रांसलेशन का टास्क यूज़ किया था जहां पर आप इंग्लिश से हिंदी ट्रांसलेशन करना चाह रहे थे और हो क्या रहा था कि आपका इंग्लिश सेंटेंस इनकोडर में जा रहा था यह एलएसटीएम उसको प्रोसेस कर रहा था और एक कॉन्टेक्स्ट वेक्टर जनरेट कर रहा था और यही कॉन्टेक्स्ट वेक्टर आप डिकोडर में डाल रहे थे और डिकोडर यह हिंदी ट्रांसलेशन प्रोड्यूस कर रहा था यह हाई लेवल ओवरव्यू था बट अगर आपको याद हो मैंने उसके बाद थोड़ा डीप जा कर के भी समझाया था कि यह पूरी चीज़ काम कैसे करती है और ये रहा उसका डायग्राम सो अगर मैं थोड़ी देर के लिए विंडो को बड़ा कर दूं तो ये हमारा आर्किटेक्चर है सो हो क्या रहा है कि हमारे पास ये सेंटेंस है नाइस टू मीट यू हम इसको इनकोडर के अंदर भेज रहे हैं वन वर्ड एट अ टाइम सबसे पहले मैंने नाइस भेजा फर्स्ट टाइम स्टेप में फिर मैंने टू भेजा फिर मैंने मीट भेजा फिर मैंने यू भेजा और एलएसटीएम क्या कर रहा है एक एक करके उन सबको प्रोसेस करता जा रहा है और एंड में वह यह हिडन स्टेट्स जनरेट कर रहा है एचटी और सीटी इनको ही हम कांटेक्ट वेक्टर बुला रहे हैं और इन कॉन्टेक्स्ट वेक्टर में क्या छुपा हुआ है इस इंग्लिश सेंटेंस का समरी अब यहां से मेन चीज शुरू होती है यह आपका डिकोडर पार्ट है आप इस कांटेक्ट वेक्टर को एज इट इज भेज दे रहे हो डिकोडर में और डिकोडर में साथ ही साथ आप एक और इनपुट दे रहे हो और वह है यह स्टार्ट का इनपुट अब उसको यह कॉन्टेक्स्ट वेक्टर मिला च इज द समरी ऑफ योर इंग्लिश सेंटेंस और यह स्टार्ट टोकन मिला और इन दोनों इनपुट्स के बेसिस पर इस एलएसटीएम ने डिकोडर वाले एलएसटीएम ने यह वर्ड जनरेट किया आपसे अब अगले टाइम स्टेप में क्या होगा कि आप अगला वर्ड जनरेट करना चाहते हो तो अगला वर्ड जनरेट करने के लिए आप जो मॉडिफाइड हिडन स्टेट है वो भेज रहे हो एज इनपुट बट साथ ही साथ आप इस आपसे को भी एज इनपुट अगले टाइम स्टेप को दे रहे हो अब ये अगला टाइम स्टेप इन दोनों को लेकर के मिलकर प्रोड्यूस कर रहा है फिर यह मिलकर अगले स्टेप के लिए इनपुट बन जा रहा है जिससे अच्छा प्रोड्यूस हो रहा है फिर ये अच्छा अगले टाइम स्टेप में इनपुट बन जा रहा है जिससे लगा प्रोड्यूस हो रहा है और फिर लगा अगले टाइम स्टेप के लिए इनपुट बन जा रहा है जिससे यह एंड टोकन प्रोड्यूस हो रहा है जिससे समझ में आ रहा है कि अब ट्रांसलेशन बंद करो भाई लेकिन यहां पर खास बात यह है नोटिस करने की कि एट एनी टाइम स्टेप आपको अगर आउटपुट बनाना है या प्रिडिक्ट करना है तो वह आउटपुट प्रिडिक्ट करने के प्रोसेस में आपको पिछले टाइम स्टेप पर क्या आउटपुट प्रिडिक्ट हुआ था उसकी भी जरूरत पड़ रही है और इसलिए आप बुला सकते हो इस मॉडल को एज एन ऑटो रिग्रेसिव मॉडल तो एनएलपी में यह जो सारे मॉडल्स होते हैं सीक टू सीक मॉडल्स जैसे कि लैंग्वेज ट्रांसलेशन हुआ या फिर लैंग्वेज मॉडलिंग हुआ जहां पर आप सेंटेंस या टेक्स्ट जनरेशन कर रहे हो वो सारे मॉडल्स एक्चुअली ऑटो रिग्रेसिव होते हैं क्योंकि वह सीक्वेंशियल होप आप आपको अब थोड़ा बेटर समझ में आ रहा है यह पूरा का पूरा सेंटेंस कि द ट्रांसफॉर्मर डिकोडर इज ऑटो रिग्रेसिव एट इनफर टाइम बट इट इज नॉन ऑटो रिग्रेसिव एट ट्रेनिंग टाइम ठीक है एटलीस्ट आपको यह वाला पार्ट समझ में आ रहा है कि प्रेडिक्शन करते टाइम वह ऑटो रिग्रेसिव है ट्रेनिंग के टाइम पे नॉन ऑटो रिग्रेसिव क्यों है यही हमारा आज के वीडियो का टॉपिक है ठीक है सो आई रियली होप यह पूरा डिस्कशन आपको समझ में आ गया अब आप के दिमाग में एक छोटा सा क्यूरियोसिटी आ सकता है कि यह जो सारे सीक टू सीक मॉडल्स है जो लेट्स से इस तरह के टास्क परफॉर्म करते हैं जैसे कि लैंग्वेज ट्रांसलेशन का टास्क हुआ या फिर टेक्स्ट जनरेशन का टास्क हुआ या टेक्स्ट समरा इजेशन का टास्क हुआ यह सारे मॉडल्स ऑटो रिग्रेसिव क्यों होते हैं तो इसका आंसर बहुत सिंपल है आप एक साथ सारे के सारे वर्ड्स क्यों नहीं प्रोड्यूस कर सकते ऐसा सोच के देखो इस मॉडल की ऐसी क्या मजबूरी है कि य सीक्वेंशियल कर रहा है आपसे फिर मिलकर फिर अच्छा फिर लगा ऐसा भी तो कोई मॉडल हो सकता है ना जो सीधे एक साथ आपसे मिलकर अच्छा लगा य चारों एक साथ पैरेलली जनरेट कर दे ऐसे मॉडल्स इसलिए नहीं होते बिकॉज आपको वाइल जनरेटिंग अच्छा यह पता होना चाहिए कि आपने अभी तक क्या जनरेट किया है राइट आप एक साथ पूरा का पूरा पैराग्राफ रेट नहीं कर सकते क्योंकि आगे वाले वर्ड्स पीछे वाले वर्ड्स के ऊपर डिपेंड करते हैं राइट मतलब यह सीक्वेंशियल डाटा है इन्हेरेंटली तो इसको सीक्वेंस में ही जनरेट करना पड़ेगा यू कैन नॉट जस्ट स्प्लिट आउट द एंटायस इन वन गो एंड दैट इज व्हाई दीज मॉडल्स हैव टू बी ऑटो रिग्रेसिव और कोई ऑप्शन ही नहीं है सो आई रियली होप आपको यह क्यूरियोसिटी नहीं आ रही कि भाई व्हाट इफ मैं ऑटो रिग्रेसिव मॉडल ना यूज करूं और मैं एक साथ सब कुछ जनरेट कर दूं वो पॉसिबल ही नहीं है बिकॉज सीक्वेंशियल डाटा का सबसे फंडामेंटल एस्पेक्ट ही यही है कि आगे वाली चीज पीछे वाली चीज पर डिपेंड करती है तो जब तक पीछे वाली चीज पहले से नहीं आई होगी तब तक आगे वाली चीज को आप जनरेट कर ही नहीं सकते एंड दैट इज व्हाई टू मॉडल सच डेटा यू नीड ऑटोरिग्रेसिव मॉडल्स एंड दैट इज व्हाई ट्रांसफॉर्मर्स इज आल्सो अ ऑटोरिग्रेसिव मॉडल नाउ असली मजा कहां है असली मजा इस सेंटेंस में इस सेंटेंस में एक बहुत मजेदार बात लिखी हुई है कि ट्रांसफार्मर का जो डिकोडर है जहां पर एक्चुअली जनरेशन हो रहा है आउटपुट निकल रहा है वह ऑटो रिग्रेसिव है बट सिर्फ इनफर के टाइम पर व्हिच इज फाइन हमने अभी तक जो पढ़ा ऐसा ही होना चाहिए बट मजेदार बात यह है कि ट्रेनिंग के टाइम पर वो ऑटो रिग्रेसिव नहीं होता डोंट यू थिंक डिकोडर को दोनों सिचुएशंस में एक जैसा बिहेव करना चाहिए ट्रेनिंग के टाइम पर भी उसको ऑटो रिग्रेसिव होना चाहिए इफर के टाइम पर भी उसको ऑटो रिग्रेसिव होना चाहिए बट गेस व्हाट ट्रांसफॉर्मर्स ट्रेनिंग के टाइम पर अलग तरीके से बिहेव कर रहे हैं और इफर के टाइम पर अलग तरीके से बिहेव कर रहे हैं और यह जो डिफरेंस इन बिहेवियर है इसके पीछे का रीजन अगर मैं आपको एक वर्ड में बता पाऊ तो वो वर्ड है मास्क सेल्फ टेंशन जो हमारे आज के वीडियो का टॉपिक है अगर आप यह समझ गए तो फिर आप समझ जाओगे इस सेंटेंस को और इसीलिए अब हम मूव करते हैं मास्क सेल्फ अटेंशन समझने की तरफ ठीक है तो आई रियली होप अभी तक जो बिल्ड अप है वीडियो का वह आपको पसंद आ रहा है आपके अंदर मैंने थोड़ी सी क्यूरियोसिटी स्पार्क कर दी है और अब आपको आंसर चाहिए सो अगर आंसर चाहिए तो फिर आगे बढ़ते हैं वीडियो में सो गाइ नाउ दैट आप आपको यह बात समझ में आ गई कि सीक टू सीक मॉडल्स को ऑटो रिग्रेसिव होने की क्यों जरूरत पड़ी और साथ ही साथ आपने यह सेंटेंस भी काफी बार देख लिया तो नाउ दिस इज अ गुड टाइम कि मैं आपको लॉजिकली यह प्रूफ करके दिखाऊं कि यह सेंटेंस सही है राइट फिर से एक बार डिस्कस कर लेते हैं सेंटेंस में क्या लिखा हुआ है कि जो ट्रांसफार्मर का डिकोडर होता है वो इफर के टाइम पे तो ऑटो रिग्रेसिव होता है बट ट्रेनिंग के टाइम पर ऑटो रिग्रेसिव नहीं होता है यह सेंटेंस अब मैं आपको प्रूफ करके दिखाऊंगा कि सही है ठीक है और प्रूफ करने के लिए मैं थोड़ा सा एक अलग तरीका यूज करूंगा व्ट आई विल डू इज कि मैं पहले यह मान के चलूंगा कि ट्रांसफार्मर का जो डिकोडर होता है वह इन रस के टाइम पर तो ऑटो रिग्रेसिव होता ही है मैं यह भी मान के चलूंगा कि ट्रांसफार्मर का जो डिकोडर है वह ट्रेनिंग के टाइम पर भी ऑटो रिग्रेसिव होता है ठीक है मैं इस पूरे डिस्कशन की शुरुआत यहां से करना चाहता हूं कि मैं यह मानूंगा कि दोनों ही स्टेजेस में इनफर एंड ट्रेनिंग दोनों ही स्टेजेस में ट्रांसफॉर्मर का डिकोडर ऑटो रिग्रेसिव ठीक है और इस डिस्कशन को कैरी आउट करने के लिए मैं एक सेंटेंस इन फैक्ट व्ट आई विल डू इ मैं एक प्रॉब्लम स्टेटमेंट लेकर आगे बढ़ना चाहता हूं सो मेरे पास यह जस्ट वन सेकंड सो हमारा जो प्रॉब्लम स्टेटमेंट है व है म ट्रांसलेशन का थोड़ी देर के लिए मान लो कि हमें एक डीप लर्निंग मॉडल बिल्ड करना है जो मशीन ट्रांसलेशन करें उसमें भी बहुत स्पेसिफिकली इंग्लिश टू हिंदी ट्रांसलेशन करके दे ठीक है और यह मॉडल बनाने के लिए हम एक ट्रांसफॉर्मर यूज कर रहे हैं यह मेरा अजम है ठीक है तो थोड़ी देर के लिए मान लेते हैं कि हमने हमारे इस ट्रांसफॉर्मर मॉडल को ट्रेन कर लिया द ट्रेनिंग हैज बीन डन इस डाटा के ऊपर यहां पर फिलहाल तीन ही सेंटेंसेस आपको दिख रहे हैं बट ऐसा मान लो कि बहुत सारे सेंटेंसेस है इस डेटा सेट में तो हमने इस बहुत बड़े डेटा सेट के ऊपर हमारे ट्रांसफॉर्मर को ट्रेन कर लिया है नाउ इट इज रेडी फॉर इनफर अब मैं आपको दिखाता हूं प्रैक्टिकली कि इनफर के टाइम पर क्या होगा सो मान लो कि इरें के टा टाइम पे मेरे ट्रांसफार्मर को किसी ने यह इंग्लिश सेंटेंस दिया आई एम फाइन और उसने बोला कि भाई इसको हिंदी में ट्रांसलेट करके दिखाओ यह मेरा ट्रांसफॉर्मर मॉडल है दिस इज द इनकोडर एंड दिस इज द डिकोडर ठीक है तो एन कोडर के बारे में तो शायद आपको पता चल ही गया होगा यहां से आप अपना इंग्लिश सेंटेंस को अंदर भेजोगे द गुड पाट द गुड पार्ट अबाउट ट्रांसफॉर्मर एन कोडर इज कि यह पैरेलली सारा का सारा इंग्लिश सेंटेंस को प्रोसेस कर सकता है बिकॉज सेल्फ अटेंशन मैकेनिज्म यह यूज करता है तो मैं यहां से आई भेजूंगा यहां से एम भेजूंगा यहां से फाइन भेजूंगा यहां पे एंबेडिंग्स जनरेट होंगी पोजीशनल एन कोडिंग अप्लाई होगा यहां पर अंदर एक मल्टीहेड अटेंशन मॉड्यूल होगा उसके आगे नॉर्मलाइजेशन होगा उसके आगे फिर एक फीड फॉरवर्ड रल नेटवर्क होगा उसके आगे फिर से नॉर्मलाइजेशन होगा और ऐसा करने के बाद मल्टीपल स्टैक्स से गुजरने के बाद हमारे पास एंड में फॉर ईच वर्ड इन आवर सेंटेंस वी विल हैव वन वेक्टर आई के लिए एक वेक्टर होगा एम के लिए एक वेक्टर होगा फाइन के लिए एक वेक्टर होगा और यह वेक्टर्स को मैं कहां भेज दूंगा मेरे डिकोडर के पास अब अनफॉर्चूनेटली इस पॉइंट पर हमें पता नहीं कि डिकोडर के अंदर क्या होता है बट मोटा मोटा हमें आईडिया है कि डिकोडर काम कैसे करेगा वह ऑटो रिग्रेसिव तरीके से काम करेगा इसका मतलब यह होगा कि वह हर टाइम स्टेप पर एक वर्ड प्रोड्यूस करेगा प्रिडिक्ट करेगा उसका स्टार्टिंग होगा इस स्टेज पर जहां पर हम उसको एक स्टार्ट टोकन देंगे उस स्टार्ट टोकन को देने से और इस इनकोडर के आउटपुट को देने से मेरा डिकोडर मुझे मेरा प वर्ड प्रिडिक्ट करके देगा और मान लेते हैं कि वह पहला वर्ड है मैं च इज फाइन राइट च इ करेक्ट आई एम फाइन का मतलब मैं बढ़िया हूं ठीक है यह सही ट्रांसलेशन है बाय द वे मुझे यह निकालना है अपने मॉडल से तो फिलहाल यह मैं आ गया अब आपको पता है ऑटोरिग्रेसिव मॉडल कैसे काम करता है अब उसको सेकंड टाइम स्टेप पे भी इनकोडर का इनपुट मिला और साथ ही साथ यह जो मैं प्रिडिक्ट हुआ था वह एज इनपुट यहां से गया ठीक है और थोड़ी देर के लिए मान लेते हैं कि यहां पर इस स्टेप में मेरे ट्रांसफॉर्मर ने गलती कर दी और उसने बढ़िया के बदले घटिया आउटपुट कर दिया ठीक है ऐसा हो सकता है राइट प्रेडिक्शन गलत हो सकता है गलत प्रेडिक्शन हो गया जो भी है हम आगे बढ़ेंगे टाइम स्टेप थ्री पे टाइम स्टेप थ्री पे फिर से मुझे एनकोड का ये आउटपुट मिलेगा और साथ ही साथ य जो घटिया हमारा यहां पर आउटपुट आया है व यहां से इनपुट बन के जाएगा और इस स्टेप पर मुझे जो आउटपुट मिला वह है ह च इज द करेक्ट आउटपुट राइट फिर क्या हुआ अगले टाइम स्टेप पर हम गए जहां पर फिर से इनकोडर का आउटपुट मुझे मिला एस इनपुट और यह जो ह है ये भी मिला और इसको अंदर भेजने से यहां पर मुझे मिला एंड जिसका मतलब है भाई ट्रांसलेशन बंद करो हमारा काम हो गया सो नट शेल में हमारा जो प्रेडिक्शन आया वह है मैं घटिया हूं इंस्टेड ऑफ मैं बढ़िया हूं ठीक है एंड दिस इज हाउ इंफर विल बी डन इंफर इस तरीके से होगा अब अंदर क्या कैलकुलेशन चल रही है यह हम लोग आगे सीखेंगे इट्स नॉट आवर कंसर्न राइट नाउ कुछ ना कुछ अंदर हो रहा है बट मोटा-मोटा कुछ ऐसा हो रहा होगा ड्यूरिंग द इनफर स्टेज अगर मेरा मॉडल ऑटो रिग्रेसिव है आई थिंक यहां तक आप अग्री कर रहे हो अब एक काम करते हैं इरें तो समझ में आ गया दो कदम पीछे लेते हैं मैंने तो आपको बोल दिया बहुत आसानी से कि भाई यह मेरा डेटा सेट है और इस पर मैंने अपने ट्रांसफॉर्मर मॉडल को ट्रेन किया है दो स्टेप पीछे लेते हैं और ट्रेनिंग प्रोसेस को भी समझते हैं कि ट्रेनिंग कैसे हुई होगी ठीक है तो एक काम करते हैं इस डेटा सेट को उठाते हैं और इसको नीचे लेकर आते हैं सो दैट यह डिस्कशन का पार्ट बना रहे सो अब हम क्या कर रहे हैं दो स्टेप पीछे जा रहे हैं और हमारे ट्रांसफॉर्मर मॉडल को ट्रेन कर रहे इस डेटा सेट के ऊपर इनफर हमने पहले देख लिया अब हम लोग ट्रेनिंग देख रहे हैं ठीक है तो ट्रेनिंग में क्या होगा हम सबसे पहले सेंटेंस नंबर वन को उठाएंगे और सेंटेंस नंबर वन है हाउ आर यू और हमें पता है पहले से पता है कि उसका हिंदी ट्रांसलेशन क्या है आप कैसे हैं ठीक है तो फिर से क्या फंडा रहेगा आप अपना इंग्लिश सेंटेंस यहां से अपने इनकोडर में भेजोगे यहां पे आप हाउ भेजोगे यहां पे आप आर भेजोगे यहां पे आप यू भेजोगे यहां पे वही सारे कैलकुलेशंस चलेंगे और यहां से आपका इनकोडर आपको आउटपुट देगा ठीक है अब यही आउटपुट आप उठा कर के डिकोडर में भेजोगे अगेन मैं फिर से आपको याद दिलाना चाहूंगा कि यहां पर हमारा जो अजमन है वह यह है कि हम ऑटो रिग्रेसिव मॉडल के ऊपर काम कर रहे हैं सो ड्यूरिंग ट्रेनिंग भी सब कुछ सीक्वेंशियल टोकन भेजेंगे टू टेल द डिकोडर कि भाई अपना काम स्टार्ट करो ट्रांसलेशन चालू करो अब बेस्ड ऑन दिस इनपुट प्रोवाइडेड बाय द इनकोडर एंड दिस स्टार्ट टोकन अंदर डिकोडर के कुछ कैलकुलेशंस चली और उसने आउटपुट में मुझे दिया तुम इंस्टेड ऑफ आप होना चाहिए था आप उसने मुझे दिया तुम नाउ दिस इज रंग तुम नहीं आना चाहिए था आप आना चाहिए था तो यहां पर अब कोई बात नहीं आगे बढ़ेंगे हम लोग टाइम स्टेप टू पे लेकिन टाइम स्टेप टू पर अब एक चेंज है चेंज क्या है मैंने आपको बहुत पहले पढ़ाया था कि ट्रेनिंग के टाइम पर आप एक कांसेप्ट यूज करते हो जिसको हम टीचर फोर्सिंग बोलते हैं च्च मींस कि यहां पर आपका डिकोडर सही आउटपुट दिया हो या गलत आउटपुट दिया हो इट डज नॉट मैटर ट्रेनिंग के टाइम पर आप अगले स्टेप में जो इनपुट भेजोगे वो डाटा से उठा कर जो सही चीज है वही भेजोगे इसका मतलब यह हुआ कि तुम यहां पर गलत वर्ड था तो आप यहां पर तुम नहीं भेजोगे आप यहां पर इंस्टेड आप भेजोगे क्योंकि आप डाटा में सही वर्ड है ठीक है आपने यहां से आप भेजा और आपके इनकोडर का आउटपुट को भेजा अंदर प्रोसेसिंग हुई और यहां पर प्रिंट हुआ कैसे जो कि सही है तो कोई फर्क नहीं पड़ता यहां पर सही आ रहा है गलत आ रहा है कोई फर्क नहीं पड़ता है आप हमेशा डाटा से उठाओगे हालांकि इस केस में सही था तो आपने यहां से कैसे भेज दिया और कैसे भेजने पर यहां पर आउटपुट आया थे च इज अगेन रंग कोई फर्क नहीं पड़ता हम अगले स्टेप में थे ना भेज करके डाटा में जो है वह भेज रहे हैं हमने भेजा है और इससे मुझे मिला एंड और मेरा ट्रांसलेशन का प्रोसेस बंद हो गया सो हुआ क्या कि आउटपुट आना चाहिए था आप कैसे हैं बट मेरा आउटपुट क्या आया तुम कैसे थे कोई बात नहीं गलतियां तो होंगी आपको क्या करना है अब इन दोनों के बीच में एक लॉस फंक्शन लगा कर के ऑप्टिमाइज करना है बैक प्रोपेगेशन लगाना है और वेट्स को अपडेट करना है यही होता है फिर आप अगले वाले रो पर जाओगे और यह प्रोसेस रिपीट करोगे बट जो मेन चीज यहां पर हुई वह मैं आपको समझाना चाहता हूं और वह यह है कि हमारा जो ट्रेनिंग प्रोसेस था वह भी ऑटो रिग्रेसिव था च मींस यहां पर टाइम स्टेप्स इवॉल्वड थे च मींस कि यह सारा का सारा प्रोसेस सीक्वेंशियल था सो मैंने अभी जस्ट आपको यह करके दिखाया कि ट्रांसफार्मर का डिकोडर भी मैंने इफर के टाइम पर ऑटो रिग्रेसिव रखा और ट्रेनिंग के के टाइम पर भी ऑटो रिग्रेसिव रखा अब आई रियली वांट कि इस पॉइंट पर आप एक बार वीडियो को पॉज करो और जरा सोचो कि ट्रेनिंग प्रोसेस को ऑटो रिग्रेसिव बनाने से क्या कोई नुकसान हुआ है क्या कोई प्रॉब्लम आई है आई होप आप समझ पा रहे हो कि एक बहुत बड़ी प्रॉब्लम इंट्रोड्यूस हो गई है अगर आप इस ट्रेनिंग प्रोसेस को ऑटो रिग्रेसिव बना देते हो तो आपका ट्रेनिंग बहुत स्लो हो जाएगा क्यों मैं आपको बताता हूं आप जस्ट सोच के देखो कि इस एक सिंगल ट्रेनिंग एग्जांपल को या एक सिंगल रो को प्रोसेस करने के लिए आपने डिकोडर के अंदर वाले ऑपरेशंस कितनी बार चलाए फोर टाइम्स राइट फोर टाइम्स आपने इसलिए चलाए बिकॉज यहां पर तीन वर्ड्स है आपके सेंटेंस में नाउ इमेजिन य एक सिंगल छोटा सेंटेंस के बदले एक पूरा पैराग्राफ होता 300 वर्ड्स का तो आप यह पूरी चीज 301 बार कर रहे होते मतलब डिकोडर के अंदर जो भी है जो भी ऑपरेशंस हो रहे हैं बहुत सारे ऑपरेशंस है बाय द वे मैं आपको दिखाता हूं ये देखो बहुत सारे ऑपरेशंस हैं ये सारे ऑपरेशंस आप 301 बार कर रहे होते हैं और ये सिर्फ एक रो है बाय द वे व्हाट इफ आपके डेटा सेट में 1 लाख रो होते नाउ यू कैन इमेजिन कि ये सीक्वेंशियल फ्लो चलाने से आपका ट्रेनिंग प्रोसेस पूरी तरीके से सीक्वेंशियल हो गया है व्हिच मींस फॉर ईच वर्ड इन योर आउटपुट डाटा आपके डिकोडर के अंदर का हर ऑपरेशन एक बार एग्जीक्यूट होगा दिस इज वेरी वेरी स्लो अब आई नो आपके दिमाग में क्या आ रहा है आपके दिमाग में यह आ रहा है कि सर बट हम क्या कर सकते हैं यह तो मजबूरी है ना यह तो मजबूरी है कि हम सीक्वेंस एग्जीक्यूट करें बिकॉज हमें सीक्वेंशियल डाटा आउटपुट करना है तो फिर वहां पर तो ऑटो रिग्रेसिव रखना ही एक ऑप्शन मेरा आंसर होगा यस एंड नो लेट मी एक्सप्लेन अगर आप इनफर की बात करो तो आपके पास सच में मजबूरी है कि आपको सीक्वेंशियल जाना पड़ेगा क्यों सोच के देखो आप जब टाइम स्टेप टू पर हो तो यहां से आप क्या इनपुट भेज रहे हो वो जो आपको पिछले टाइम स्टेप में आउटपुट मिला अगर आप इस टाइम स्टेप पर हो तो आपका इनपुट क्या है जो आपके पिछले टाइम स्टेप का आउटपुट है तो मेरे पास कोई ऑप्शन ही नहीं है मुझे पिछला वाला चला के देखना ही पड़ेगा और जो आउटपुट मुझे यहां मिल रहा है उसी को तो मैं आगे भेज सकता हूं इसके अलावा मेरे पास कोई ऑप्शन ही नहीं है एंड दैट इज व्हाई इफर के टाइम पर ऑटो रिग्रेसिव होना आपकी मजबूरी है बट गेस व्हाट ट्रेनिंग में ऐसी कोई मजबूरी नहीं है ध्यान से से देखो आप सेकंड स्टेप पर यहां पर क्या भेज रहे हो आप जबकि आपका यहां पर आउटपुट क्या आया था तुम आप यहां पर क्या भेज रहे हो कैसे इट डज नॉट मैटर पिछले टाइम स्टेप पर कैसे आया या क्या आया या क्यों आया आप हर अगले टाइम स्टेप पर इनपुट में एक ऐसी चीज भेज रहे हो जो आपके डेटा सेट में ऑलरेडी प्रेजेंट है व्ट आई एम ट्राइट से इज कि बिकॉज ऑफ टीच फोर्सिंग आपके ऊपर यह प्रेशर है ही नहीं कि आप यहां इनपुट में इस टाइम स्टेप में वो चीज भेजो जो आपके पिछले टाइम स्टेप का आउटपुट है आई रियली होप आपको यह बात समझ में आ रही है बिकॉज ऑफ टीचर फोर्सिंग यह जो कंस्ट्रेंट था हमारे सिस्टम में कि भाई पिछले टाइम स्टेप का आउटपुट ही अगले टाइम स्टेप का इनपुट होगा वह रहा ही नहीं पिछले टाइम स्टेप में कुछ भी आए आपका इस टाइम स्टेप का इनपुट हमेशा डेटा से से डिसाइड हो रहा है एंड गेस व्हाट यह डेटा सेट तो आपके पास हमेशा से है तो फिर वेट क्यों करना है मतलब यह है किय आप वर्ड यह कैसे वर्ड और यह है वर्ड इनफैक्ट यह स्टार्ट वर्ड यह चारों तो मेरे पास हमेशा से हैं तो यह चारों स्टेप्स को मैं पैरेलली भी तो एग्जीक्यूट कर सकता हूं क्योंकि यह जो अंदर कैलकुलेशन चल रही है यह तो पैरेलली एग्जीक्यूट हो ही सकती है सो बेसिकली टाइम स्टेप बेसिस का कोई डिप पेंडेंसी रहा नहीं ट्रेनिंग में और असली ट्रांसफॉर्मर आर्किटेक्चर में यही होता है वह इस पूरे प्रोसेस को इस तरीके से ऑप्टिमाइज करते हैं कि ड्यूरिंग द ट्रेनिंग प्रोसेस आपका ट्रांसफार्मर का डिकोडर इज नॉन ऑटोरिग्रेसिव नाउ आई रियली होप आपको यह सेंटेंस समझ में आ रहा है ऑटो रिग्रेसिव होता है इनफर एस टाइम पर क्योंकि व मजबूरी है बट ट्रेनिंग टाइम पर ऑटो रिग्रेसिव नहीं होता सब कुछ पैरेलली प्रोसेस होता है और पैरेलली प्रोसेस होने की वजह से ट्रेनिंग का जो स्पीड है वह बहुत फास्ट हो जाता है आई होप आपको यह बात अभी तक समझ में आ रही है तो अब हमारा आगे का डिस्कशन इस चीज पर होगा कि कैसे हम इस प्रॉब्लमैटिक सिनेरियो को सॉल्व करेंगे कैसे हम यहां पर पैरेलल एग्जीक्यूशन लाएंगे ठीक है आगे बढ़ते हैं अब गाइ हमने बहुत आम से यह तो बोल दिया कि हमें ऑटो रिग्रेसिव के बदले नॉन ऑटो रिग्रेसिव तरीके से डिकोडर को ट्रेन करना चाहिए और पैरेलल तरीके से ट्रेनिंग होनी चाहिए बट गेस व्हाट यह उतना आसान नहीं है और मैं आपको समझाता हूं कि यह इतना आसान क्यों नहीं है अब य समझने के लिए एक काम करते हैं अभी तक तो हम यह मान के चल रहे थे कि डिकोडर के अंदर कुछ कुछ होता है हमें नहीं पता अंदर क्या कैलकुलेशन चलती है एक काम करते हैं थोड़ा सा ना डिकोडर को देखते हैं इसके अंदर है क्या क्लियर यहां पर बहुत सारे अलग-अलग ब्लॉक्स है मैं आपकी मुलाकात करवाना चाहता हूं इस फर्स्ट ब्लॉक से ध्यान से देखो यहां पर क्या लिखा हुआ है डिकोडर के अंदर जो फर्स्ट ब्लॉक है उसका नाम है मास्क मल्टीहेड अटेंशन अब मैं चाहूंगा कि आप थोड़ी देर के लिए मास्क को भूल जाओ क्योंकि हमें नहीं पता मास्क क्या है बट हमें मल्टीहेड अटेंशन तो पता है यह हमने बहुत अच्छे से पढ़ा था इनकोडर में और अगर मैं थोड़ा और सिंपलीफाई करना चाहूं इस डिस्कशन को तो व्हाट आई कैन डू इज आई कैन एक्चुअली कॉल मल्टीहेड अटेंशन सेल्फ अटेंशन बिकॉज आफ्टर ऑल मल्टीहेड अटेंशन होता क्या है मल्टीपल सेल्फ अटेंशन राइट अगर हम सिर्फ एक हेड यूज कर रहे होते तो हमारा मल्टीहेड अटेंशन इज इक्वल टू सेल्फ अटेंशन तो एक काम करते हैं जस्ट टू सिंपलीफाई आवर डिस्कशन हम मान लेते हैं कि डिकोडर के अंदर जो पहला ब्लॉक आपको दिखाई देता है वह सेल्फ अटेंशन ब्लॉक है और आपको अब क्या करना है इस फर्स्ट रो को ट्रेनिंग के दौरान इस सेल्फ अटेंशन ब्लॉक में भेजना है सो इन शॉर्ट यह जो आपके तीन वर्ड्स हैं आप कैसे हैं यह तीनों एक साथ इस सेल्फ अटेंशन ब्लॉक में घुस अब आई नो आपके दिमाग में सब क्वेश्चन आ रहे होंगे कि डायरेक्टली हिंदी के वर्ड्स कैसे जा सकते हैं सेल्फ अटेंशन में आई नो वैलिड बात है डायरेक्टली नहीं जाएगा हमारे पास एंबेडिंग का फीचर है आप क्या करोगे आप पहले इन तीनों वर्ड्स को लोगे मैं थोड़ा यहां पर डिटेल में लिखता हूं आप इन तीनों वर्ड्स को लोगे आप कैसे है यह तीन वर्ड्स को आपने लिया और आपने इन तीनों को पहले भेजा एंबेडिंग लेयर में और एंबेडिंग लेयर ने क्या किया इन तीनों वर्ड्स के लिए एक एक एंबेडिंग क्रिएट की एंबेडिंग मतलब वेक्टर क्रिएट किया यहां पर आपके पास आपका एंबेडिंग है यहां पर आपके पास कैसे का एंबेडिंग है और यहां पर आपके पास है का एंबेडिंग है ठीक है अब इन एंबेडिंग्स को आप भेजोगे कहां पर सेल्फ अटेंशन के अंदर अब आई वांट कि आप थोड़ा पीछे जाओ इस प्लेलिस्ट में और याद करने की कोशिश करो कि जब मैं आपको व्हाट इज सेल्फ अटेंशन पढ़ा रहा था तो मैंने आपको सबसे सिंपल क्या डिस्क्रिप्शन दिया था सेल्फ अटेंशन का सो अगर आपको याद होगा मैंने आपको बोला था कि सेल्फ अटेंशन एक ऐसा ब्लॉक होता होता है सेल्फ अटेंशन एक ऐसा ब्लॉक होता है जहां पर जब आप किसी पर्टिकुलर वर्ड का एंबेडिंग भेजते हो तो यह सेल्फ अटेंशन क्या करता है उस एंबेडिंग से कंटेक्सचर्स चुअल एंबेडिंग जनरेट करता है मैंने आपको एग्जांपल भी दिया था अगर आपको याद हो हमारे पास दो सेंटेंसेस थे एक था रिवर बैक और एक था मनी बैंक मैंने आपको बताया था कि जब आप इन तीनों वर्ड्स का एंबेडिंग निकालो रिवर का एंबेडिंग निकालो मनी का एंबेडिंग निकालो और बैंक का एंबेडिंग निकालो तो आप यह बात रियलाइक्स यह दोनों वर्ड्स अलग सेंटेंस में अलग कांटेक्ट में यूज हो रहे हैं पहले सेंटेंस में बैंक का मतलब एक जगह है किनारा और दूसरे सेंटेंस में बैंक का मतलब एक इंस्टीट्यूशन है जहां पर आप पैसे जमा करते हो तो होता क्या है कि जब आप यहां पे रिवर का एंबेडिंग भेजोगे और यहां पे आप बैंक का एंबेडिंग भेजोगे तो इस तरफ आपको रिवर का कांटेक्ट मिलेगा और इस तरफ आपको बैंक का कांटेक्ट मिलेगा और यह जो कांटेक्ट या फिर इसको वेक्टर बुला सकते हैं यह जो टर होगा वह इस बात को कंसीडर करेगा कि वह रिवर के साथ यूज हो रहा है सिमिलरली आप अगर मनी को भेजोगे एज इन मनी के एंबेडिंग वेक्टर को भेजोगे और यहां से बैंक के एंबेडिंग वेक्टर को भेजोगे तो यहां पे आपको मनी का कंटेक्सुअल एंबेडिंग मिलेगा और यहां पर आपको बैंक का कंटेक्सुअल एंबेडिंग मिलेगा और यहां पे जो बैंक का कंटेक्सुअल एंबेडिंग या वेक्टर है वो इस बात को कंसीडर करेगा कि वो मनी के साथ एजिस्ट कर रहा है व्हिच मींस कि बैंक यह कंटेक्सुअल एंबेडिंग और बैंक का यह कंटेक्सुअल एंबेडिंग यह दोनों अलग होंगे और यही काम करता है आपका सेल्फ अटेंशन ब्लॉक अब अगर आप बात करो इस सिचुएशन की जहां पर आप क्या कर रहे हो कि आपके पास एक सेल्फ अटेंशन ब्लॉक है और वहां से आप तीन वर्ड्स आप कैसे और है इन तीनों वर्ड का जब आप एंबेडिंग भेज रहे हो तो यह सेल्फ अटेंशन ब्लॉक क्या करेगा इन तीनों वर्ड्स के लिए कंटेक्सुअल एंबेडिंग जनरेट करेगा राइट और यह तीनों के तीनों कंटेक्सुअल एंबेडिंग्स यह कंसीडर करेंगे कि वह पर्टिकुलर वर्ड किन दूसरे वर्ड्स के साथ एजिस्ट कर रहा है मतलब जब आपका कंटेक्सुअल एंबेडिंग जनरेट होगा तो वो यह कंसीडर करेगा कि वोह कैसे और है के साथ यूज हो रहा है जब जब आप कैसे का कंटेक्सुअल एंबेडिंग जनरेट करोगे तो वो इस बात को कंसीडर करेगा कि वो आप और है के साथ एजिस्ट कर रहा है जब आप है का कंटेक्सुअल एंबेडिंग जनरेट करोगे तो वो इस बात को कंसीडर करेगा कि वो आप और कैसे के साथ यूज हो रहा है आई होप आपको यहां तक बात समझ में आ रही है तो इन अ वे मैंने आपको ये दिखाया था उस पुराने वीडियो में कि कंटेक्सुअल एंबेडिंग को आप मैथमेटिकली एक तरीके से पर्सीव कर सकते हो जैसे कि आप ये लिख सकते हो कि आपका कंटेक्सचर्स जैसे कि वो 8 टाइम्स आपकी एंबेडिंग से मिलके बना है व टाइम्स कैसे की एंबेडिंग से मिलके बना है और पट व टाइम्स है की एंबेडिंग से मिलके बना है सिमिलरली आप ऐसा पर्सीव कर सकते हो ओबवियसली एग्जांपल नंबर्स है कि कैसे का कंटेक्सुअल एंबेडिंग % आपकी एंबेडिंग से मिलकर बना है 75 पर खुद कैसे की एंबेडिंग से मिलकर बना है और 1 पर है की एंबेडिंग से मिलके बना है एंड सिमिलरली है का कंटेक्सुअल एंबेडिंग पॉइंट व टाइम्स आपकी एंबेडिंग से मिलकर बना है पटू टाइम्स कैसे की एंबेडिंग से मिलकर बना है और प से टाइम्स खुद है की एंबेडिंग से मिलकर बना है दिस इज व सेल्फ अटेंशन डज अब आप सोच रहे होंगे कि मैंने इतने डिटेल में आपको ऑलरेडी सेल्फ अटेंशन पढ़ा रखा है फिर मैं यह दोबारा रिपीट क्यों कर रहा हूं मैं इसलिए रिपीट कर रहा हूं बिकॉज बहुत डीप लेवल पर जाकर के मैं आपके दिमाग में एक पॉइंट बिठाना चाहता हूं कि आप कितनी बड़ी गलती कर रहे हो आप कितनी बड़ी गलती कर रहे हो इन सारे वर्ड्स को पैरेलली भेज के क्योंकि सोच के देखो आपने भी क्या किया आपने जस्ट आपका जो कंटेक्सचर्स रिप्रेजेंट किया विद द हेल्प ऑफ आपके एंबेडिंग के साथ कैसे की एंबेडिंग के साथ और है की एंबेडिंग के साथ अब आप बोलोगे इसमें क्या गलत है तो आई वुड से कि यहां पर एक बहुत बड़ी प्रॉब्लम है बहुत बड़ी प्रॉब्लम यह है कि जब आपने यह सेंटेंस लिखना शुरू किया होगा तो आपने सिर्फ आप लिखा होगा तो इस पॉइंट पे सिर्फ आप है कैसे नहीं है है नहीं है ठीक है बट आपका यह इक्वेशन क्या डिमांड कर रहा है कि आपको रिप्रेजेंट करने के लिए उसको प8 टाइम्स आप चाहिए व टाइम्स कैसे चाहिए जो कि अभी एजिस्ट नहीं करता और पव टाइम्स है चाहिए सिमिलरली आपने सेंटेंस में अगला वर्ड जैसे ही ऐड किया होगा कैसे तो अब आप कैसे को रिप्रेजेंट करने के लिए क्या डिमांड कर रहे हो कि भाई कैसे 15 आपसे मिलके बनेगा 75 पर कैसे से मिलक बनेगा और 10 पर है से मिलक बनेगा है बाय द वे अभी पिक्चर में आया भी नहीं है और फाइनली जब आप है लिख दोगे तो इसमें कोई प्रॉब्लम नहीं है क्योंकि है के टाइम पर यह तीनों चीजें एजिस्ट करती है तो यह अपना काम कर सकता है 10 पर आप से मिलके बना है 20 कैसे से मिलके बना है 70 है से मिलके बना है बट इसमें और इसमें एक बहुत बड़ी प्रॉब्लम है कि आपका जो करंट टोकन का वैल्यू है इसको डिराइवर करने के लिए या कैलकुलेट करने के लिए आप फ्यूचर टोकन की वैल्यूज को यूज कर रहे हो च इज अनफेयर डोंट यू थिंक यह ट्रेनिंग के टाइम पर तो आप कर सकते हो बिकॉज आपके पास डेटा सेट अवेलेबल है आपके पास आउटपुट सेंटेंस अवेलेबल है बट यह काम आप प्रेडिक्शन के टाइम पर इनफर के टाइम पर नहीं कर सकते बिकॉज गेस व्हाट आपने जस्ट अभी आप प्रिंट किया है तो आपको क्या पता अगला सेंटेंस में कैसे आएगा है आएगा या कुछ और आएगा तो फिर आप यह मैथमेटिकल एक्सप्रेशन सॉल्व ही कैसे कर पाओगे या इसका वैल्यू निकाल ही कैसे पाओगे आप फ्यूचर की चीजें नहीं जानते हो तो आप फ्यूचर की वैल्यूज को यूज नहीं कर सकते बट आप ट्रेनिंग में ऐसा कर रहे हो एंड दैट इज व्हाई यह गलत है मशीन लर्निंग में आप कभी भी ऐसा कोई काम नहीं करते जहां पर आप ट्रेनिंग में तो कुछ कर सकते हो बट व सेम काम प्रेडिक्शन में नहीं कर सकते एसेंशियली अगर मैं बोलू एक हार्ड डिफिकल्ट वर्ड तो आई वुड से कि आप चीटिंग कर रहे हो आप अपने मॉडल से चीटिंग करवा रहे हो आप उसको पहले से बता दे रहे हो कि आगे भाई क्या वर्ड है तो देर अ गुड चांस कि आपका यह मॉडल ट्रेनिंग डाटा प अच्छे रिजल्ट देगा बट जब वो रियल वर्ल्ड डाटा पर जाक प्रेडिक्शन करने जाएगा तो उसका रिजल्ट्स बहुत खराब आएंगे अगर आपने एक बहुत फेमस टर्म सुना है तो यह जो एपल है यह डाटा लीकेज का एग्जांपल है आपके मॉडल के पास ट्रेनिंग के टाइम पर कुछ एक्स्ट्रा इंफॉर्मेशन है जो नहीं होनी चाहिए वह चीज उसके पास प्रेडिक्शन के टाइम पर नहीं रहेगा दिस इज अ केस ऑफ सीरियस डेटा लीकेज सो यह वह प्रॉब्लम है जो मैं आपको बताना चाहता था जब आप पैरेलल अप्रोच यूज करते हो सो नाउ हम फस चुके हैं लेट मी सराइज योर सिचुएशन आपकी सिचुए ये है कि आपने जब ऑटो रिग्रेसिव अप्रोच लिया बाय द वे बाय द वे गोइंग बैक टू द डिस्कशन यह डेटा लीकेज का प्रॉब्लम नहीं होता अगर आप चुपचाप से ऑटो रिग्रेसिव तरीके से ट्रेनिंग कराते सीक्वेंस में सोच के देखो आपके पास सिर्फ आप होता तो आप आप के बेसिस पर सारा कैलकुलेशन करते जब आप और कैसे आ जाता तो आप और कैसे के बेसिस पर सारा कैलकुलेशन करते जब आप कैसे और है आ जाता तो इन तीनों के बेसिस पर कैलकुलेशन करते यह डेटा लीकेज की प्रॉब्लम होती ही नहीं सो इन शॉर्ट लेट मी समरा इज कि आप कहां फसे हो आप जब ऑटो रिग्रेसिव ट्रेनिंग कराने निकले तो सब अच्छा था अच्छे से चीजें चल रही थी डटा लीकेज नहीं था आई शुड से नो डटा लीकेज बट प्रॉब्लम क्या हो रही थी कि जो ट्रेनिंग है वो स्लो हो जा रही थी इनफैक्ट बहुत स्लो हो जा रही थी और जब आपने सोचा कि यार एक काम करते हैं नॉन ऑटो रिग्रेसिव तरीके से ट्रेन करते हैं सारे टोकेंस को पैरेलली भेजेंगे एक साथ सब कुछ प्रिडिक्ट करेंगे तो ट्रेनिंग तो भाई आपकी फास्ट हो गई काफी फास्ट हो गई बिकॉज आप बैचेज में डाटा भेज रहे हो बट एक नई प्रॉब्लम आ गई और वह है डाटा लीकेज की आपके करेंट टोकेंस आपके फ्यूचर टोकेंस की वैल्यू देख पा रहे हैं व्हिच इज अनफेयर प्रेडिक्शन के टाइम पे यह नहीं मिलने मिलेगा राइट सो नट शल में इधर कुआ उधर खाई इस सिचुएशन में आप फस चुके हो और अब इस दुविधा को कैसे सॉल्व करें यह बहुत बड़ा सवाल बन चुका है क्या यह पॉसिबल भी है अगर मैं सीक्वेंशियल करने की कोशिश कर रहा हूं तो कोई प्रॉब्लम आ रही है अगर मैं पैरेलल करने की कोशिश कर रहा हूं तो दूसरी प्रॉब्लम आ रही है क्या कोई ऐसा स्मार्ट तरीका है जिससे हम बेस्ट ऑफ बोथ वर्ल्ड्स निकाल पाए द आंसर इज यस द आंसर इज यस बट उसके लिए आपको सेल्फ अटेंशन के हाउ में घुसना पड़ेगा उसके अंदर की सारी कैलकुलेशंस को एक बार रिविजिट करना पड़ेगा बिकॉज वहीं पर आंसर छुपा है सो आई एम प्रिटी श्यर अब आप काफी एक्साइटेड हो आगे बढ़ते हैं तो चलो गाइस एक बार फिर से सेल्फ अटेंशन का जो वर्किंग है वो समझते हैं और ऐसा हम इसलिए कर रहे हैं बिकॉज इसके डिटेल्स में ही हमारा आंसर छुपा हुआ है ठीक है सो लेट्स सी सेल्फ अटेंशन कैसे काम करता है सो हमारे पास हमारा आउटपुट सेंटेंस है आप कैसे हैं और हमें इन तीनों वर्ड्स को एक साथ सेल्फ अटेंशन मॉड्यूल में भेजना है बट वह करने के पहले हमें इन तीनों का एंबेडिंग्स कैलकुलेट करना है तो सबसे पहले हम वो करेंगे यहां पर यह जो येलो कलर का बॉक्स है इसमें हमने हर वर्ड का एंबेडिंग कैलकुलेट करके रखा है यह आपका एंबेडिंग है यह कैसे का एंबेडिंग है और यह है का एंबेडिंग है अब आपको क्या करना होता है कि सेल्फ अटेंशन ब्लॉक के अंदर घुसना होता है और सेल्फ अटेंशन ब्लॉक के अंदर आपको सबसे पहले तीन मैट्रिसेज मिलते हैं इनको हम वेट मैट्रिसेज बुलाते हैं ठीक है एक का नाम होता है डबल क एक का नाम होता है डबल के और दूसरे का तीसरे का नाम होता है डब् व अब आपको क्या करना होता है अपने हर वर्ड की एंबेडिंग को इन तीन तीनों वेट मैट्रिस के साथ डॉट प्रोडक्ट कराना होता है ठीक है सो यहां पर डायग्राम देख के आपको कंफ्यूज नहीं होना है यह ग्रीन मैट्रिक्स यह ग्रीन मैट्रिक्स और यह ग्रीन मैट्रिक्स सेम है एगजैक्टली सेम यह पिंक यह पिंक और यह पिंक एगजैक्टली सेम है यह ब्लू यह ब्लू और यह ब्लू एगजैक्टली सेम है हम क्या कर रहे हैं हर वर्ड की एंबेडिंग को उठा रहे हैं और तीनों वेट मैट्रिस के साथ डॉट प्रोडक्ट कर रहे हैं इससे हमें हर वर्ड के एंबेडिंग के लिए तीन नए वेक्टर्स मिल रहे हैं यू कैन सी दैट सो जब हमने आपकी एंबेडिंग को इन तीनों मैट्रिक्स के साथ डॉट प्रोडक्ट किया तो हमें तीन नए वेक्टर्स मिले q आप के आप व आप यह वही फेमस वेक्टर्स हैं जिनको हम क्वेरी की और वैल्यू वेक्टर्स बुलाते हैं सो बेसिकली फॉर एव्री वर्ड ऑफ माय सेंटेंस आई विल गेट थ्री न्यू वेक्टर्स हर वर्ड का खुद का क्वेरी वेक्टर होगा हर वर्ड का खुद का की वेक्टर होगा हर वर्ड का खुद का वैल्यू वेक्टर होगा सो इस स्टेज में हमने वह सारे वेक्टर्स कैलकुलेट कर लिए अब एक काम करते हैं थोड़ा सहूलियत के लिए एक काम कर सकते हैं हम कि जो सारे के सारे क्वेरी वेक्टर्स हैं उनको हम स्टैक अप करके एक मैट्रिक्स बना सकते हैं और वी कैन कॉल दिस मैट्रिक्स द क्वेरी मैट्रिक्स इसमें में हमारे हर वर्ड के क्वेरी वेक्टर्स का काइंड ऑफ हमने कॉमिनेशन बना दिया सिमिलरली हम सारे के सारे की वेक्टर्स को उठा कर के की मैट्रिक्स बना सकते हैं और सारे के सारे वैल्यू वेक्टर्स को उठा कर के वैल्यू मैट्रिक्स बला बना सकते हैं ऐसा करने से बस ये फायदा होगा कि आप मैट्रिक्स ऑपरेशन एक साथ कर पाओगे राद देन डूइंग इंडिविजुअल ऑपरेशन ऑन ऑल द वर्ड्स अब यहां से मेन काम शुरू होता है सेल्फ अटेंशन का सबसे पहली चीज आप क्या करते हो कि आप क्वेरी और की मैट्रिक्स के बीच में डॉट प्रोडक्ट कराते हो और इससे आपको एक नया मैट्रिक्स मिलता है और इस नई मैट्रिक्स में हर वैल्यू रिप्रेजेंट्स द अटेंशन स्कोर राइट सो दिस लाइट येलो मैट्रिक्स इज वेरी इंपोर्टेंट बिकॉज दिस कंटेंस योर अटेंशन स्कोर्स अब आप क्या करते हो इन अटेंशन स्कोर्स को स्केल करते हो बेसिकली इसके हर आइटम को आप डिवाइड मारते हो इस नंबर से 1 डिवाइड बा स्क्वा रूट ऑफ d के वेर डी के इज द डायमेंशन ऑफ द वेक्टर अगेन सब कुछ आपको पता है इससे आपको ये नया मैट्रिक्स मिलता है येलो कलर का मैट्रिक्स अब इसके ऊपर आप सॉफ्ट मैक्स ऑपरेशन चलाते हो जिससे आपको फाइनली वो नंबर्स मिलते हैं जिनको यूज करके आप कंटेक्सुअल एंबेडिंग्स कैलकुलेट करोगे कैसे बहुत सिंपल है अब आप क्या करते हो आप अपने वेट्स को उठाते हो और इन वेट्स को आप वैल्यू वेक्टर्स के साथ मल्टीप्लाई करते हो फॉर एग्जांपल आप का कंटेक्सुअल एंबेडिंग आपको कैलकुलेट करना है कैसे कैलकुलेट करोगे बहुत सिंपल है आप इस मैट्रिक्स का फर्स्ट वेट उठाओगे w11 और उसको मल्टीप्लाई कर दोगे आपके वैल्यू वेक्टर के साथ v आप फिर आप इसी मैट्रिक्स का सेकंड आइटम उठाओगे w12 और इसको आप मल्टीप्लाई कर दोगे कैसे के वैल्यू वेक्टर के साथ फिर आप इसी का थर्ड आइटम उठाओगे w13 और इसको मल्टीप्लाई कर दोगे है के वैल्यू वेक्टर के साथ और इन तीनों को जब आप ऐड करोगे तो आपको मिल जाएगा आपका कंटेक्सुअल एंबेडिंग सिमिलरली आपको कैसे का कांटेक्ट कैलकुलेट करना है आप यह वाला आइटम उठाओगे और इसको मल्टीप्लाई कर दोगे v आपके साथ फिर यह वाला आइटम उठाओगे इसको मल्टीप्लाई कर दोगे v कैसे के साथ फिर आप यह वाला आइटम उठाओगे इसको मल्टीप्लाई कर दोगे v है के साथ और फिर इन तीनों को ऐड कर दोगे इससे आपको मिलेगा कैसे का कंटेक्सुअल एंबेडिंग और बिल्कुल सेम तरीके से आप नीचे वाले रोज के सारे नंबर्स को उठाओगे और मल्टीप्लिकेशन करते जाओगे और आपको आपका है वर्ड का कंटेक्सुअल एंबेडिंग मिल जाएगा सो दिस इज द एनटायर प्रोसेस ऑफ सेल्फ अटेंशन एंड ट्रस्ट मी यह मैंने बहुत डिटेल में आपको पढ़ाया है नाउ कम्स द मोमेंट हमें क्या नहीं चाहिए ध्यान से देखो यहां पर आपका आंसर छुप हमें आपका कंटेक्सुअल एंबेडिंग कैलकुलेट करते वक्त यह वाला कंट्रीब्यूशन नहीं चाहिए प्लस यह वाला कंट्रीब्यूशन नहीं चाहिए बिकॉज जब आप आप की बात कर रहे हो तो कैसे और है पिक्चर में नहीं आया था सिमिलरली जब आप कैसे का कंटेक्सुअल एंबेडिंग कैलकुलेट कर रहे हो तब आपको यह वाला कंपोनेंट पिक्चर में नहीं चाहिए बिकॉज जब कैसे आया था तब है पिक्चर में नहीं था सो इन अ वे मुझे किसी तरीके से इसको जीरो करना है इसको जीरो करना है और इसको जीरो करना है अब जीरो करने के तरीके बहुत ज्यादा नहीं है यहां पे बहुत सिंपल ऑब्जर्वेशन है कि किसी तरीके से अगर आप w12 w13 और w23 को जीरो कर दो तो ऑटोमेटिक यह सारी चीजें जीरो हो जाएंगी और फिर आपको बनाने के लिए सिर्फ आपका कंट्रीब्यूशन होगा कैसे को बनाने के लिए सिर्फ आप और कैसे का कंट्रीब्यूशन होगा और हमारा प्रॉब्लम सॉल्व हो जाएगा बट सवाल यह उठता है कि हम इन तीनों को जीरो करेंगे कैसे सो यहीं पर आता है मास्किंग का कांसेप्ट हम क्या करेंगे हम इस पूरे के पूरे फ्लो में एक स्टेप और ऐड कर देंगे ध्यान देना क्या करेंगे हम सो हमारे पास यह डॉट प्रोडक्ट से यह वाला मैट्रिक्स आया च इज फाइन उसके बाद हमने स्केलिंग की तो हमें यह येलो कलर का मैट्रिक्स मिला दिस वन दिस इज आल्सो फाइन अब इस स्टेप में आप क्या करोगे आप बिल्कुल सेम डायमेंशन का एक नया मेट्रिक्स क्रिएट करोगे जिसको आप मास्क बुलाओगे ध्यान देना इसका शेप एगजैक्टली वही है जो इस मेट्रिक्स का है बस हम एक चीज करेंगे कि जो जो जगहों पर हमें जीरो चाहिए था उन जगहों पर हम माइनस इनफ ड कर देंगे ठीक है अब क्या होगा कि जब हम इन दोनों मैट्रिस को ऐड करेंगे तो सिंस यह तीन जगहो पर माइनस इनफिनिटी है तो ऑटोमेटिक जब एव ऐड होगा इस माइनस इनफिनिटी से तो क्या मिलेगा माइनस इनफिनिटी जब यह ऐड होगा माइनस इनफिनिटी से तो हमें क्या मिलेगा माइनस इनफिनिटी और जब यह ऐड होगा माइनस इनफिनिटी से तो हमें क्या मिलेगा माइनस इनफिनिटी सिंस बाकी सारी जगहों पर जीरो है तो यह सारी व एज इट इज कॉपी हो जाएंगी अब इस मेट्रिक्स के ऊपर हम सॉफ्ट मैक्स लगाएंगे जो हम करते आ रहे थे अब आपको शायद पता हो या ना पता हो बट सॉफ्ट मैक्स ऑफ माइनस इनफिनिटी इज जीरो और यहां पर आपको जीरो मिल जाएगा जैसे ही यहां पर आपको जीरो मिलेगा तो ऑटोमेटिक यह चीज जीरो हो गई यह चीज जीरो हो गई और यह चीज जीरो हो गई और यह पूरी चीज के जीरो होने की वजह से से ऑटोमेटिक आपका कंटेक्सुअल एंबेडिंग कैलकुलेट करते वक्त सिर्फ आपका वैल्यू वेक्टर यूज़ हो रहा है कैसे का कंटेक्सचर्स आप और कैसे का अ एंबेडिंग कैलकुलेट वैल्यू वेक्टर कैलकुलेट हो रहा है या यूज़ हो रहा है और है के लिए तीनों यूज़ हो रहे हैं एंड दिस इज हाउ मास्किंग विल सॉल्व द प्रॉब्लम ऑफ हैविंग नॉट हैविंग अ ऑटो रिग्रेसिव मॉडल यट हैविंग अ पैरेलल प्रोसेसिंग सो इस प्रोसेस से क्या हो रहा है हमें बेस्ट ऑफ बोथ वर्ल्ड्स मिल रहे हैं हम पैरेलली चीजों को प्रोसेस कर पा रहे हैं एक साथ हमने तीनों को भेजा एक साथ हमारे तीनों के लिए आंसर निकल के आ रहा है एट द सेम टाइम सिंस हमने मास्किंग कर दी तो करंट टोकन को फ्यूचर टोकन की वैल्यू नहीं मिल रही तो डटा लीकेज भी नहीं हो रहा सो इस तरीके से हमने ट्रेनिंग के प्रोसेस में अचीव किया नॉन ऑटो रिग्रेसिव राइट आई रियली होप यह पूरा का पूरा एक्सप्लेनेशन इस लास्ट मोमेंट पर आकर के इट्स मेकिंग सेंस टू यू राइट अब आई विल बी वेरी ऑनेस्ट विद यू मुझे लगता है शायद एक घंटे का वीडियो हो चुका होगा कोई और ट चैनल पर शायद य आपको 10 मिनट में समझाया जा सकता था एंड आईम टोटली ओके कोई सच में यह टॉपिक 10 मिनट में समझा सकता है बट मैंने यह समझाने के लिए एक घंटा लिया और मैंने एक घ घं सिर्फ इसलिए लिया बिकॉज मुझे ऐसा लगता है कि अब इस एक घंटे के एक्सप्लेनेशन के बाद आपको यह टॉपिक सिर्फ आता ही नहीं है बट मुझे ऐसा लगता है कि आप शायद किसी को पकड़ के पढ़ा भी सकते हो सो उस लेवल का कॉन्फिडेंस और नॉलेज इंपार्ट करने के लिए मैंने वह एक्स्ट्रा 50 मिनट्स लिए आई रियली होप आपको यह अप्रोच पसंद आया अगर आपको यह अप्रोच पसंद आया प्लीज डू लाइक दिस वीडियो और अगर आपने चैनल को सब्सक्राइब नहीं किया है प् प्ली डू सब्सक्राइब वी आर ऑन अ ब्यूटीफुल जर्नी टू एक्सप्लेन द ट्रांसफॉर्मर्स आर्किटेक्चर वी आर गोइंग स्लो आई नो बट आई प्रॉमिस यू बाय द एंड ऑफ दिस जर्नी आपके पास ट्रांसफॉर्मर्स का बहुत क्लियर पिक्चर होगा इतना क्लियर कि आप अपने पियर्स से बहुत बेटर परफॉर्म कर पाओगे अगर आपसे इंटरव्यूज में क्वेश्चंस पूछे गए इस टॉपिक के ऊपर सो आई एम सुपर एक्साइटेड आगे की वीडियोस के लिए आई रियली होप आप भी हो मिलते हैं नेक्स्ट वीडियो में बाय