सैम ऑल्टमैन ने एक पॉडकास्ट में चेतावनी दी कि ChatGPT पर आंख बंद कर भरोसा न करें। यह AI “हैलुसिनेशन” की समस्या से जूझता है, यानी गलत लेकिन विश्वसनीय दिखने वाली जानकारी देता है। यूजर्स को सावधानी बरतने की सलाह देते हुए, उन्होंने कहा, “यह तकनीक ऐसी नहीं है, जिस पर आप ज्यादा भरोसा करें।”
CEO ने बताया कि AI पैटर्न्स के आधार पर जवाब देता है, जिससे हैलुसिनेशन होता है। उदाहरण के लिए, अगर आप पूछें, “भारत का 53वां राज्य,” तो यह विश्वसनीय लेकिन गलत जवाब दे सकता है। शिक्षा, हेल्थकेयर, या रिसर्च में ऐसी गलतियां जोखिम बढ़ा सकती हैं। ऑल्टमैन ने पारदर्शिता पर जोर दिया और यूजर्स से आलोचनात्मक सोच के साथ AI का इस्तेमाल करने को कहा।

AI हैलुसिनेशन क्या है और क्यों है खतरनाक?
AI हैलुसिनेशन तब होता है, जब ChatGPT जैसा मॉडल गलत या मनगढंत जानकारी को आत्मविश्वास के साथ पेश करता है। उदाहरण के लिए, अगर आप पूछें, “1857 की क्रांति का WhatsApp पर असर,” तो यह काल्पनिक लेकिन विश्वसनीय कहानी बना सकता है। सैम ऑल्टमैन ने बताया कि यह समस्या इसलिए है, क्योंकि AI वास्तविक समझ की बजाय डेटा पैटर्न्स पर काम करता है। यह शिक्षा या हेल्थकेयर जैसे क्षेत्रों में खतरनाक हो सकता है, जहां सटीकता जरूरी है। ऑल्टमैन सुझाव देते हैं कि जवाबों को क्रॉस-चेक करें, जैसे किताबों या विशेषज्ञों से। OpenAI इस समस्या को कम करने पर काम कर रहा है।
ChatGPT का सही इस्तेमाल कैसे करें?
सैम ऑल्टमैन ने ChatGPT के सही इस्तेमाल के लिए टिप्स दिए। स्पष्ट और विशिष्ट सवाल पूछें, जैसे “1857 की क्रांति के मुख्य कारण” न कि “इतिहास बताओ।” जवाबों को विश्वसनीय सोर्स, जैसे किताबें या वेबसाइट्स, से वेरिफाई करें। उदाहरण के लिए, अगर आप पूछें, “भारत में सबसे ऊंचा पर्वत,” और जवाब K2 आए, तो इसे गूगल या किताब से चेक करें। ऑल्टमैन ने बताया कि वे पेरेंटिंग टिप्स के लिए ChatGPT यूज करते थे, लेकिन हर जवाब चेक करते थे। नई फीचर्स जैसे पर्सिस्टेंट मेमोरी यूज करें, लेकिन प्राइवेसी का ध्यान रखें। AI को सहायक मानें, न कि अंतिम सत्य।