कृत्रिम बुद्धिमत्ता (एआई) प्रणालियाँ, विशेषकर बड़े भाषा मॉडल (एलएलएम), विभिन्न क्षेत्रों में दक्षता और क्षमताओं में सुधार ला रही हैं। हालांकि, इन प्रणालियों से जुड़ी एक महत्वपूर्ण चुनौती "एआई मतिभ्रम" की घटना है, जिसमें एआई मॉडल ऐसी जानकारी उत्पन्न करते हैं जो तथ्यात्मक रूप से गलत या पूरी तरह से मनगढ़ंत होती है।
एआई मतिभ्रम के कई कारण हैं। प्रशिक्षण डेटा की गुणवत्ता एक महत्वपूर्ण कारक है; यदि डेटा में अशुद्धियाँ या पूर्वाग्रह हैं, तो एआई मॉडल अपने आउटपुट में इन त्रुटियों को पुन: उत्पन्न करने की संभावना है। मॉडल की जटिलता भी एक भूमिका निभाती है; यदि मॉडल में ऐसी जटिलताएँ हैं जो उत्पन्न होने वाली आउटपुट की सीमा को नियंत्रित नहीं करती हैं, तो एआई मतिभ्रम अधिक हो सकता है।
एआई मतिभ्रम के परिणाम बहुआयामी हैं, जिसमें विश्वास का क्षरण और प्रतिष्ठित क्षति शामिल है। जब एआई सिस्टम गलत जानकारी का उत्पादन करते हैं, तो उपयोगकर्ता प्रौद्योगिकी में विश्वास खो सकते हैं, जिससे गोद लेने और निर्भरता में कमी आती है। जो संगठन एआई सिस्टम तैनात करते हैं, वे अपने ब्रांड की प्रतिष्ठा को जोखिम में डालते हैं यदि ये सिस्टम झूठी जानकारी का प्रसार करते हैं।
एआई मतिभ्रम को कम करने के लिए, संगठन कई रणनीतियों को लागू कर सकते हैं। एआई-जनित आउटपुट में मानव समीक्षा को शामिल करने से यह सुनिश्चित होता है कि गलतियों की पहचान की जाए और प्रसार से पहले उन्हें ठीक किया जाए। यह सुनिश्चित करना कि प्रशिक्षण डेटा सटीक, निष्पक्ष और प्रतिनिधि है, मतिभ्रम की संभावना को कम कर सकता है। उदाहरण के लिए, माइक्रोसॉफ्ट ग्लोबल ऑनलाइन सेफ्टी सर्वे 2024 के अनुसार, 66% उपयोगकर्ताओं का मानना है कि एआई मतिभ्रम एक बड़ा खतरा है जो एआई उपकरणों और तकनीकों का उपयोग करने से उत्पन्न हो सकता है।
एआई सिस्टम विकसित करना जो उनकी तर्क प्रक्रियाओं की व्याख्या कर सकते हैं, त्रुटियों की पहचान और सुधार करने में मदद करते हैं। एआई आउटपुट की नियमित निगरानी और प्रतिक्रिया तंत्र की स्थापना वास्तविक समय में मतिभ्रम का पता लगाने और सुधार करने की अनुमति देती है। सक्रिय रूप से इस मुद्दे को संबोधित करते हुए, संगठन अपनी प्रतिष्ठा और संचालन के लिए संभावित जोखिमों को कम करते हुए एआई के लाभों का उपयोग कर सकते हैं।