ChatGPT अब नहीं देगा मेडिकल, फाइनेंशियल और लीगल सलाह: OpenAI ने जारी की नई गाइडलाइन

नई दिल्ली
एआई चैटवाट अपने उपयोग कर्ताओं को मेडिकल, वित्तीय और कानून से संबंधित सलाह नहीं देगा।चैट जीपीटी की पेरेंट कंपनी ने मुकदमे बाजी और जिम्मेदारी से बचने के लिए,भारत के प्लेटफार्म पर यह कदम उठाया है।

कंपनी का कहना है, यह कदम चैट जीपीटी का उपयोग करने वाले उपयोगकर्ताओं की सुरक्षा और उनकी कानूनी जिम्मेदारी से बचने के लिए यह निर्णय लिया है। वर्तमान निर्णय के पश्चात अब चैटवाट मुकदमे से बचने के लिए कानूनी जानकारी, निवेश इत्यादि से संबंधित  तथा स्वास्थ्य से संबंधित दावों के बारे में सुझाव और सलाह की जिम्मेदारी नहीं लेगा।

कंपनी को डर है,  जिस तरह की जानकारी चैट जीपीटी द्वारा दी जाती है।भारत में उस जानकारी को लेकर मुकदमेबाजी का शिकार होना पड़ सकता है। जिसके कारण कंपनी ने जिम्मेदारी से हटा लिया है। अब उपयोगकर्ता अपने स्तर पर निर्णय करेगा, उसे वह जानकारी सही लगती है, या गलत है।

अब क्या बदल जाएगा?

See also  बच्‍चों के लिए खास ईयरबड्स: इस कंपनी ने पेश किया नया डिवाइस, फीचर्स देख रह जाएंगे हैरान!

नए नियमों के बाद ChatGPT यूजर्स को दवाओं के नाम, उनकी मात्रा, मुकदमे की टेंपलेट, कानूनी रणनीति और निवेश से जुड़ी सलाह नहीं देगा. अब यह केवल जनरल प्रिंसिपल, बेसिक मैकेनिज्म की जानकारी और लोगों को डॉक्टर, वकीलों और वित्तीय सलाहकारों जैसे प्रोफेशनल्स से कंसल्टेशन करने की सलाह देगा. 

29 अक्टूबर से ChatGPT ने इलाज, कानूनी मुद्दों और पैसों के बारे में सलाह देना बंद कर दिया है। यह बॉट अब आधिकारिक तौर पर एक एजुकेशनल टूलहै, न कि एक सलाहकार और नई शर्तें इसे स्पष्ट रूप से दर्शाती हैं। नए नियमों के तहत, अब चैटजीपीटी न ही आप लोगों को दवा का नाम या खुराक का सुझाव देगा, न ही कानूनी रणनीति बनाने में मदद करेगा और न ही निवेश संबंधी खरीद और बिक्री की सलाह देगा।

क्यों किया जा रहा है यह बदलाव?

पिछले कुछ समय से कई ऐसे मामले सामने आ रहे हैं, जब लोग ChatGPT से मिली सलाह का पालन कर खुद को नुकसान पहुंचा चुके हैं. अगस्त में एक ऐसा ही मामला सामने आया था, जब एक 60 वर्षीय बुजुर्ग ने ChatGPT से सलाह लेकर नमक की जगह सोडियम ब्रोमाइड खाना शुरू कर दिया था. इससे उसे मानसिक समस्याएं होने लगीं, जिसके बाद अस्पताल में भर्ती कराया गया. इसी तरह एक और मामले में अमेरिका के एक 37 वर्षीय व्यक्ति को खाना निगलने में समस्या हो रही थी. उसने ChatGPT से इस बारे में पूछा तो चैटबॉट ने बताया कि कैंसर के कारण ऐसा होना बहुत मुश्किल है. वह व्यक्ति इससे संतुष्ट हो गया और उसने समय पर डॉक्टर से संपर्क नहीं किया. बाद में जब कैंसर चौथी स्टेज पर पहुंच गया, तब जाकर वह डॉक्टर के पास पहुंचा.

See also  भारतीय रेलवे जल्द ही एक नया मोबाइल ऐप करने वाला है लॉन्च