काठमाडौं। अमेरिकी अर्बपति तथा X (पूर्व Twitter) का ओनर एलन मस्कको कम्पनी xAI हाल विवादमा छ। प्रमुख उत्पादन ‘Grok AI’ ले X मा अनुचित सामग्री पोस्ट गरेपछि खाता निलम्बित भएको छ। यसले AI सुरक्षा र जिम्मेवारीबारे बहसलाई तीव्र बनाएको छ।
अन्तर्राष्ट्रिय सञ्चारमाध्यमका अनुसार, मस्कको नेतृत्वमा चलेको xAI भित्र हालै निर्णय प्रक्रियामा स्पष्ट दिशानिर्देशनको अभाव र आन्तरिक तालमेलको कमजोरी देखिएको छ। इन्जिनियर र प्रबन्धकबीचको असहमति, तथा उत्पादनको सामग्री नियमनसम्बन्धी स्पष्ट नीतिको कमीले कम्पनीको दीर्घकालीन विश्वसनीयतामा प्रश्न उठाएको विश्लेषकहरूले बताएका छन्।
यसैबीच, Grok AI को आधिकारिक X खातामा केही दिनअघि अनुचित र आपत्तिजनक पोस्ट सार्वजनिक भएपछि निलम्बित गरिएको थियो। यी पोस्टहरूमा हिटलरको प्रशंसा गर्ने लगायत अन्य विवादास्पद सामग्रीहरू समावेश थिए। X मा सामग्री नियमनको अधिकार मस्ककै नियन्त्रणमा भए पनि, आफ्नै कम्पनीको AI बाट यस्तो विवादास्पद सामग्री बाहिरिनु नेतृत्वको नियन्त्रण क्षमतामाथि गम्भीर प्रश्नको रूपमा लिइएको छ। आलोचकहरूले यसलाई “AI मा स्वचालित निर्णय प्रक्रियाले मानवीय मूल्य र सामाजिक मर्यादालाई बेवास्ता गर्न सक्छ” भन्ने चेतावनीको ठोस उदाहरणका रूपमा देखाएका छन्।
विशेषज्ञहरूका अनुसार, AI बाट सिर्जित सामग्रीको जिम्मेवारी कसको हुने भन्ने विषय अझै स्पष्ट छैन। यदि कम्पनीले समयमै आवश्यक नियन्त्रण र सामग्री फिल्टरिङ प्रणाली विकास गर्न सकेन भने, यसले कानुनी तथा नीतिगत जोखिम निम्त्याउन सक्ने चेतावनी विशेषज्ञहरूले दिएका छन्। विशेषगरी, गलत सूचना, घृणात्मक अभिव्यक्ति र अनुचित सामग्री रोकथामका लागि AI कम्पनीहरूले अझ सशक्त सुरक्षा संरचना अपनाउनुपर्ने आवश्यकता देखिएको छ।
नेपाली सन्दर्भमा पनि यो विवाद महत्त्वपूर्ण छ। नेपालमा AI प्रविधिको प्रयोग बढ्दो अवस्थामा छ । तर सामग्री नियमन र जिम्मेवारीबारे स्पष्ट नीति नहुँदा, भविष्यमा यस्ता विवाद यहाँ पनि दोहोरिन सक्ने जोखिम छ। विज्ञहरूले प्रारम्भिक चरणमै AI उत्पादनको प्रयोग, नियन्त्रण र सामग्री सुरक्षा सम्बन्धी कानुनी ढाँचा तयार गर्न सुझाब दिएका छन्।
यो विवादले मस्कको नेतृत्व र व्यवस्थापन क्षमतामाथि बहस ल्याएको छ। Grok AI प्रकरणले प्राविधिक विकाससँगै नैतिकता, जिम्मेवारी र प्रभावकारी व्यवस्थापन अपरिहार्य हुने देखाएको छ।