KNEWS DESK- अगर आप AI असिस्टेंट के तौर पर Google Gemini का इस्तेमाल करते हैं, तो यह खबर आपके लिए बेहद जरूरी है। गूगल के AI असिस्टेंट जेमिनी को लेकर एक गंभीर सिक्योरिटी चेतावनी सामने आई है। हाल ही में जेमिनी को Google Calendar तक एक्सेस दिया गया था, जिसे प्रोडक्टिविटी बढ़ाने वाला फीचर बताया गया। लेकिन अब सुरक्षा शोधकर्ताओं ने दावा किया है कि यही सुविधा यूजर्स की निजता के लिए बड़ा खतरा बन सकती है।

Gemini को Calendar एक्सेस क्यों दिया गया था?
गूगल ने जेमिनी को Calendar ऐप तक इसलिए एक्सेस दिया, ताकि AI यूजर्स को उनकी मीटिंग्स, शेड्यूल और खाली समय की जानकारी दे सके। इससे बार-बार कैलेंडर चेक करने की जरूरत खत्म हो जाती है और काम ज्यादा आसान हो जाता है। हालांकि, जैसे-जैसे AI को ज्यादा अधिकार और डेटा एक्सेस मिलता है, वैसे-वैसे सिक्योरिटी रिस्क भी बढ़ने लगता है।
रिसर्चर्स का खुलासा: AI को भाषा से भी बहकाया जा सकता है
साइबर सिक्योरिटी फर्म Miggo Security के शोधकर्ताओं ने बताया कि जेमिनी को सिर्फ कोड से नहीं, बल्कि भाषा और संदर्भ (Context) के जरिए भी गुमराह किया जा सकता है। यही वजह है कि यह खतरा सामान्य यूजर्स की नजर से आसानी से छिप जाता है।
क्या है Indirect Prompt Injection?
रिसर्च के अनुसार, हैकर्स एक तकनीक का इस्तेमाल कर रहे थे जिसे Indirect Prompt Injection कहा जाता है। इस तकनीक में हैकर यूजर को एक साधारण सा Google Calendar इनवाइट भेजते हैं। इस इनवाइट के डिस्क्रिप्शन में छुपे हुए निर्देश लिखे होते हैं। ये निर्देश किसी कोड की तरह नहीं, बल्कि सामान्य भाषा में होते हैं, जिन्हें AI आसानी से समझ लेता है — लेकिन यूजर को उन पर शक नहीं होता।
एक सामान्य सवाल और हो जाता है बड़ा डेटा लीक
समस्या तब शुरू होती है, जब यूजर जेमिनी से पूछता है — “क्या मैं इस दिन फ्री हूं?” इस सवाल का जवाब देने के लिए जेमिनी पूरे कैलेंडर को स्कैन करता है। इसी दौरान वह उस खतरनाक इनवाइट तक पहुंच जाता है, जिसमें छुपे निर्देश होते हैं। नतीजा यह होता है कि AI खुद ही मीटिंग्स का सार बनाकर नया कैलेंडर इवेंट तैयार कर देता है। बाहर से सब कुछ सामान्य लगता है, लेकिन इसी प्रक्रिया में निजी कैलेंडर डेटा लीक हो चुका होता है।
गूगल की प्रतिक्रिया: खामी को किया गया ठीक
Miggo Security ने इस कमजोरी की जानकारी गूगल की सिक्योरिटी टीम को पहले ही दे दी थी। गूगल ने जांच के बाद इस खामी की पुष्टि की और दावा किया है कि अब इसे फिक्स कर दिया गया है। हालांकि, इस घटना ने AI सिक्योरिटी को लेकर कई बड़े सवाल खड़े कर दिए हैं।
AI का बढ़ता इस्तेमाल और नया साइबर खतरा
सुरक्षा विशेषज्ञों का कहना है कि AI आधारित फीचर्स एक नए तरह के साइबर खतरे को जन्म दे रहे हैं। अब कमजोरियां सिर्फ कोड में नहीं, बल्कि AI के व्यवहार, भाषा और संदर्भ समझने के तरीके में भी छुपी हो सकती हैं। यह मामला भविष्य के AI सिस्टम्स के लिए एक बड़ी चेतावनी माना जा रहा है।
यूजर्स के लिए जरूरी सलाह
- प्राइवेसी सेटिंग्स को समय-समय पर अपडेट करें।
- AI को दिए गए ऐप एक्सेस की नियमित जांच करें।
- अनजान कैलेंडर इनवाइट स्वीकार करने से बचें।
- AI से जुड़े नए फीचर्स इस्तेमाल करते समय सतर्क रहें।