पछिल्लो समय प्रविधि जगतमा ठूलो चर्चा पाएको र केही विवादास्पद भएको एप च्याटजिपिटि निर्माण गरेको कम्पनीले जिपिटि-फोर सार्वजनिक गरेपछि यसका सिईओ स्याम अल्टम्यानले यस्तो एआइले समाजलाई पुन: नयाँ आकार दिने भएकाले यसका खतराहरू धेरै भएको चेतावनी दिएका छन् ।
३७ वर्षीय अल्टम्यानले मानवताको लागि सम्भावित नकारात्मक नतिजाहरूबाट जोगाउन नियामकहरू र समाजलाई टेक्नोलोजीमा संलग्न हुन आवश्यक रहेकोमा जोड दिए। “हामी यहाँ होसियार हुनुपर्दछ,” अल्टम्यानले बिहीबार एबीसी न्यूजलाई भने, “मलाई लाग्छ कि हामी यसबाट थोरै डराएकोमा मानिसहरू खुशी हुनुपर्छ।”
“म विशेष गरी यी मोडेलहरू ठूलो मात्रामा भ्रामक सूचनाको लागि प्रयोग गर्न सकिन्छ भनेर चिन्तित छु,” अल्टम्यानले भने। “अब तिनीहरू कम्प्युटर कोड लेख्नमा राम्रो हुँदै गएका छन्, [तिनीहरूलाई] आक्रामक साइबर-आक्रमणहरूको लागि प्रयोग गर्न सकिन्छ।”
तर खतराहरूको बावजुद, उनले भने, यो “मानवजातिले अहिलेसम्म विकास गरेको सबैभन्दा ठूलो प्रविधि” पनि हुन सक्छ।
यो चेतावनी ओपनएआईले आफ्नो भाषाको एआई मोडल, जिपिटि फोर को नयाँ संस्करण जारी गरेपछि आएको थियो, मूल संस्करण च्याटजिपिटि जारी भएको चार महिना भन्दा कम समयमा । र यो इतिहासमा अहिलेसम्मकै सबैभन्दा द्रूत गतिमा बढेको उपभोक्ता एप्लिकेशन (consumer application) बन्यो।
अन्तर्वार्तामा, आर्टिफिसियल इन्टेलिजेन्स इन्जिनियरले नयाँ संस्करण “पर्फेक्ट नभए पनि” अमेरिकामा बार परीक्षामा ९०% र हाईस्कूल एसएटी गणित परीक्षणमा ९०% अंक प्राप्त गरेको बताए। यसले धेरै प्रोग्रामिङ ल्याङवेजहरूमा कम्प्युटर कोड पनि लेख्न सक्छ, उनले भने।
उपभोक्ताको सामना गर्ने एआइ र सामान्यतया एआइको डरले मानिसलाई मेसिनले प्रतिस्थापन गरेकोमा ध्यान केन्द्रित गर्दछ। तर अल्टम्यानले औंल्याए कि एआइले मानिसको निर्देशन वा इनपुटमा मात्र काम गर्छ।
” यो कसैले इनपुट देओस् भनेर पर्खेर बस्छ,” उनले भने। “यो त्यस्तो उपकरण हो जुन धेरै हदसम्म मान्छेको नियन्त्रणमा छ।” तर उनका अनुसार कुन र कस्तो मानिसले इनपुट नियन्त्रण गरेको छ भन्ने कुरामा उनी चिन्तित छन्।
“त्यस्ता मानिसहरू हुन्छन् जसले हामीले लगाएका सुरक्षा सीमाहरू प्रयोग गर्दैनन्,” उनले थपे। “मलाई लाग्छ, समाजसँग त्यसलाई कसरी प्रतिक्रिया दिने, कसरी नियमन गर्ने, कसरी यसलाई ह्यान्डल गर्ने भनेर पत्ता लगाउनको लागि सीमित समय छ।”
च्याटजिपटिका धेरै प्रयोगकर्ताहरूले यो मेसिनबाट त्यस्ता प्रतिक्रियाको सामना गरेका छन् जुन डरै लाग्ने खालका छन् । टिभी समाचार आउटलेटमा प्रस्ताव गरिएका परीक्षणहरूमा, जिपिटि फोरले एउटा त्यस्तो परीक्षण प्रदर्शन गर्यो जसमा यसले फ्रिजको सामग्रीको फोटो खिचेर इन्पुटमा हाल्दा तिनीहरूबाट कस्ता परिकार बनाउन सकिन्छ भनेर ठ्याक्कै बताइदिएको थियो ।
जब ओपनएआइ एक गैर-नाफामूलक कम्पनी थियो यसका सुरूवाती लगानीकर्ताहरू मध्ये एक, टेस्लाका सीईओ, एलोन मस्कले बारम्बार चेतावनी जारी गरेका छन् कि एआई वा एजीआई (आर्टिफिसल जेनेरेटिभ इन्टेलिजेन्स) आणविक हतियारभन्दा पनि बढी खतरनाक छ।
मस्कले चिन्ता व्यक्त गरेका छन् कि बिंग सर्च इन्जिनमा च्याटजीपीटी एकिकृत गरिसकेको कम्पनी माइक्रोसफ्टले यसको नैतिक निरीक्षण विभागलाई खारेज गरेको छ। “एआईको कुनै नियामक निरीक्षण छैन, जुन प्रमुख समस्या हो। मैले एक दशकभन्दा बढी समयदेखि एआई सुरक्षा नियमनको लागि आह्वान गरिरहेको छु!” मस्कले डिसेम्बरमा ट्वीट गरेका थिए। यसै हप्ता मस्कले अहिले आफ्नो स्वामित्वमा रहेको ट्विटरमा पनि चिन्तित भए: “अब हामी मान्छेले गर्न बाँकी नै के रहन्छ र?”
यो पनि पढ्नुस्: के एआइ नैतिकवान हुन सक्छ ?
अल्टम्यानले स्वीकार गरे कि च्याटजिपिटिको नयाँ संस्करण जिपिटि फोरले स्मरणको सट्टा निगमनात्मक तर्क (deductive reasoning) को प्रयोग गर्दछ जसले विचित्र प्रतिक्रियाहरू निम्त्याउन सक्छ।
“मैले मानिसहरूलाई सबैभन्दा धेरै सतर्क गराउन खोजेको कुरालाई हामी ‘विभ्रम समस्या’ (hallucination problem) भन्छौं,” अल्टम्यानले भने। “यो मोडलले पूर्ण रुपमा बनिबनाउ कुराहरूलाई समेत तथ्य नै हो जसरी व्यक्त गर्न सक्छ।”
“हामीले सिर्जना गर्ने मोडेलहरूको बारेमा सोच्ने सही तरिका तर्क-इन्जिन (reasoning engine) हो, तथ्य-डाटाबेस (fact database) होइन,” उनले थपे। यद्यपी यो टेक्नोलोजीले तथ्यहरूको डाटाबेसको रूपमा काम गर्न सक्छ, उनले भने, “यो तिनीहरूबारे खासै विशेष होइन – हामीले तिनीहरुलाई गराउन लगाउने कुरा भनेको तर्क गर्ने क्षमतासँग नजिक छ, स्मरणसँग हैन।”