अब ChatGPT से भी हो सकती है ठगी! रिपोर्ट में हुआ चौंकाने वाला खुलासा

जैसे-जैसे तकनीक हमारे जीवन में गहराई से प्रवेश कर रही है, वैसे-वैसे साइबर ठगी के तरीके भी हाईटेक होते जा रहे हैं। पहले जहां स्कैमर्स ईमेल और मैसेज के जरिए फिशिंग लिंक भेजते थे, अब वही काम AI टूल्स जैसे ChatGPT और Perplexity AI भी करने लगे हैं — और वह भी बिना किसी बुरे इरादे के, लेकिन नतीजा उतना ही खतरनाक!

❗ नेटक्राफ्ट की रिपोर्ट ने किया बड़ा खुलासा
हाल ही में सामने आई Netcraft की रिपोर्ट के मुताबिक, ChatGPT का उपयोग करते समय यूजर्स को फिशिंग अटैक का शिकार बनाया जा सकता है। रिपोर्ट में कहा गया है कि जब यूजर्स ने GPT-4.1 मॉडल से फाइनेंस, रिटेल, टेक और यूटिलिटी कंपनियों की आधिकारिक वेबसाइट्स के लिंक मांगे, तो 34% मामलों में AI ने गलत URL दे दिए।

🔗 इनमें से कुछ URL खतरनाक फिशिंग साइट्स भी हो सकती हैं, जहां क्लिक करते ही आपकी निजी जानकारी हैकर्स के हाथ लग सकती है।

ChatGPT ने 34% मामलों में परोसे गलत लिंक
रिपोर्ट के अनुसार, GPT-4.1 मॉडल से 50 पॉपुलर ब्रांड्स की लॉग-इन वेबसाइट्स के लिंक मांगे गए।

66% मामलों में सही लिंक मिले

लेकिन 34% मामलों में ग़लत या संदिग्ध लिंक परोस दिए गए

अगर यूजर ने इन लिंक्स पर क्लिक किया, तो उनका बैंक अकाउंट, पर्सनल डेटा या डिवाइस खतरे में पड़ सकता है।

🤖 Perplexity AI भी नहीं रहा भरोसेमंद
रिपोर्ट में यह भी बताया गया कि जब Perplexity AI से Wells Fargo की वेबसाइट का लिंक पूछा गया, तो उसने भी एक फिशिंग साइट का लिंक दे दिया।

🚨 क्या सावधानी बरतें?
AI टूल्स से मिले लिंक पर बिना जांचे क्लिक न करें

किसी भी साइट को खोलने से पहले उसका URL अच्छी तरह चेक करें

जहां संभव हो, सीधे गूगल सर्च या ब्रांड की आधिकारिक वेबसाइट से लिंक एक्सेस करें

यह भी पढ़ें:

5000 से शुरू करें अपना बिजनेस: घर बैठे कमाएं हजारों, वो भी फेस्टिव सीज़न में