AI युग में सूचना सुरक्षा: ChatGPT को नहीं बतानी चाहिए 5 बातें

AI युग में सूचना सुरक्षा: ChatGPT को नहीं बतानी चाहिए 5 बातें

――ब्राज़ील से रिपोर्ट और जापान के सोशल मीडिया की आवाज़ों से जोखिम और उपायों का विश्लेषण――

प्रस्तावना: सुविधा के पीछे छिपा "अपरिवर्तनीय" मूल्य

जनरेटिव AI अब खोज इंजन और सोशल मीडिया के समान दैनिक बुनियादी ढांचे का हिस्सा बन गया है। ChatGPT, Copilot, Gemini, Notion AI - हम 24 घंटे कभी भी AI से सवाल पूछ सकते हैं, योजनाएं बना सकते हैं, और बजट तैयार कर सकते हैं। हालांकि, इनपुट की गई सामग्री क्लाउड में बनी रहती है और मॉडल सुधार या विज्ञापन लक्ष्यीकरण के लिए द्वितीयक उपयोग के रूप में इस्तेमाल की जा सकती है यह तथ्य आश्चर्यजनक रूप से कम ज्ञात है।

14 जून को प्रकाशित ब्राज़ील के InfoMoney के व्याख्यात्मक लेख "Gemini, ChatGPT e mais : 5 informações para nunca compartilhar com IAs" ने **"AI को कभी नहीं सौंपने वाली 5 प्रकार की जानकारी"** को सूचीबद्ध किया और बड़ी प्रतिक्रिया प्राप्त कीinfomoney.com.br। इस लेख में हम उसी लेख के मुख्य बिंदुओं को जापानी में विस्तार से प्रस्तुत करेंगे, साथ ही घरेलू और विदेशी सोशल मीडिया पर व्यक्त की गई सकारात्मक और नकारात्मक प्रतिक्रियाओं का विश्लेषण करेंगे, और जापानी उपयोगकर्ताओं के लिए तुरंत लागू करने योग्य उपायों का लगभग 10,000 शब्दों में गहन विश्लेषण करेंगे।



पहला अध्याय: InfoMoney द्वारा चेतावनी दी गई "5 प्रमुख निषिद्ध डेटा"

InfoMoney के लेख ने निम्नलिखित 5 बिंदुओं को "निषिद्ध" के रूप में घोषित किया है।

#श्रेणीविशिष्ट उदाहरणमुख्य जोखिम
1व्यक्तिगत जानकारीनाम, पता, फोन नंबर, CPF/RG (ब्राज़ील का राष्ट्रीय पहचान संख्या के समकक्ष) आदिव्यक्तिगत पहचान और धोखाधड़ी
2लॉगिन जानकारीआईडी और पासवर्ड, वन-टाइम कोडखाता हैकिंग
3कार्यस्थल की गोपनीयताआंतरिक चैट का पूरा पाठ, अनुबंध ड्राफ्टव्यापार रहस्य और पेटेंट का रिसाव
4वित्तीय और चिकित्सा डेटाकार्ड नंबर, निवेश शेष, चिकित्सा रिपोर्टवित्तीय धोखाधड़ी और रोजगार भेदभाव
5विचार और भावनाएंअवसाद के लक्षण या प्रेम संबंधी सलाह जैसे गहरे मुद्देमनोवैज्ञानिक प्रोफाइलिंग

लेख ने **"AI न तो मित्र है और न ही चिकित्सक"** पर जोर दिया है और भावनाओं से संबंधित जीवंत पाठ को भी सीखने के लिए एक जोखिम के रूप में इंगित किया हैinfomoney.com.br



अध्याय 2: जापान के कानूनी नियम और सांस्कृतिक पृष्ठभूमि

1. व्यक्तिगत जानकारी संरक्षण कानून और AI

जापान में भी "व्यक्तिगत जानकारी के संरक्षण के संबंध में कानून" में संशोधन किया गया है, और 2022 सेतीसरे पक्ष को व्यक्तिगत संबंधित जानकारी की आपूर्ति के नियमलागू किए गए हैं। जब ग्राहक डेटा को प्रॉम्प्ट में चिपकाया जाता है, तो यह "बाहरी आपूर्ति" के मामले में आ सकता है, और कंपनियों के लिए उपयोग के उद्देश्य की पहचान और सुरक्षा प्रबंधन उपाय आवश्यक हैं।


2. “समाज की हवा पढ़ने” की एक और कमी

जापानी लोग गोपनीयता के प्रति सतर्क होते हैं, वहींकेवल AI के साथ परामर्श करने की प्रवृत्तिभी होती है। "दूसरों को परेशान नहीं करना" की सांस्कृतिक दबाव संवेदनशील भावनात्मक डेटा को बड़े पैमाने पर डालने का कारण बन सकता है।



अध्याय 3: 5 प्रमुख NG डेटा की गहराई से जांच

1. व्यक्तिगत जानकारी: गुप्त खाते में भी सुरक्षित नहीं

घरेलू सोशल मीडिया पर "जनरेटिव AI में नाम डालने पर, वह सीधे खोज परिणामों में दिखाई देता है" जैसी रिपोर्टें लगातार आ रही हैं। Note के पोस्टर @safe_lynx ने सुझाव दिया है कि "नाम और व्यापारिक साझेदारों कोअमूर्तकरके दर्ज करने से लीक की संभावना काफी कम हो जाती है"note.com


बिंदु

  • नाम को "यामादा तारो→T कंपनी के प्रतिनिधि" में बदलें।

  • तारीख को "14 जून 2025→पिछले महीने के मध्य" में धुंधला करें।

2. लॉगिन जानकारी: पासवर्ड मैनेजर के अलावा किसी को न दें

"पासवर्ड को प्रबंधित करें" के लिए AI पर भरोसा करने की इच्छा समझ में आती है, लेकिनजब तक यह एन्क्रिप्टेड स्टोरेज नहीं है, इसे तीसरे पक्ष की नजरों से दूर रखें। InfoMoney ने जोर देकर कहा है कि "केवल याददाश्त या विश्वसनीय विशेष प्रबंधन उपकरण का उपयोग करें"infomoney.com.br


3. कार्यस्थल की गोपनीयता: बाहरी परामर्श का अर्थ है "बाहरी लीक"

पूरे आंतरिक पुस्तकालय को चिपकाकर कोड समीक्षा का अनुरोध करने के मामले अक्सर देखे जाते हैं। जब तोत्तोरी प्रीफेक्चरल गवर्नमेंट ने ChatGPT के व्यावसायिक उपयोग पर पूरी तरह से प्रतिबंध लगा दिया, तो **"पुराना जमाना" और "लेकिन जानकारी का लीक होना डरावना है"** जैसी बहसें सोशल मीडिया पर हुईंnlab.itmedia.co.jp। निष्कर्ष निकला, "एक समर्पित आंतरिक GPT स्थापित करें या बाहरी मॉडल को केवल सारांश दें" - यह दो विकल्प हैं।


4. वित्तीय और चिकित्सा डेटा: AI और “पैसे और स्वास्थ्य” के बीच की दूरी

फिनटेक उद्योग में "AI को स्वचालित बजट पढ़ने दें" की प्रवृत्ति सक्रिय है, लेकिन InfoMoney नेकार्ड नंबर या निदान रिपोर्ट को सीधे चिपकाना आत्मघाती कदमकहा हैinfomoney.com.br।देश में भी बैंक API एन्क्रिप्टेड संचार + एक्सेस नियंत्रण के साथ आते हैं। व्यक्तिगत उपयोग के AI चैट में इसे लागू नहीं किया जा सकता।


5. सोच और भावनाएँ: मानसिक स्वास्थ्य से संबंधित "AI दोस्त" दोधारी तलवार हैं

जनरेटिव AI "सोच और भावनाओं" को वेक्टराइज करता है और उपयोगकर्ता की प्रोफाइलिंग करता है। ब्राजील के लेख में "गलत सलाह से मनोवैज्ञानिक नुकसान की संभावना" का उल्लेख किया गया है, और भावनात्मक परामर्श के लिए विशेषज्ञ या विश्वसनीय व्यक्ति से संपर्क करने की सलाह दी गई हैinfomoney.com.br



अध्याय 4: SNS ने क्या कहा - जापान की वास्तविक आवाज

प्रमुख पोस्टप्रतिक्रिया की दिशास्रोत उद्धरण
"कंपनी में ChatGPT का उपयोग करना चाहता हूँ, लेकिन 'क्या नहीं डालना है' समझ नहीं आता"चिंता और जानकारी की कमीNote लेख की टिप्पणी अनुभागnote.com
"केवल तोत्तोरी प्रांत शोवा युग में है" या "नहीं, यह एक बुद्धिमान निर्णय है"उपयोग प्रतिबंध पर पक्ष और विपक्षITmedia रिपोर्टिंगnlab.itmedia.co.jp
"AI से प्रेम संबंधी सलाह मांगी, और जवाब मेरे पूर्व प्रेमी जैसा ही था।डरभावनात्मक डेटा के प्रबंधन का डरNote अनुभवnote.com

मुख्य प्रवृत्तियाँ

  1. नियमों की मांग: "स्पष्ट 'इनपुट निषेध सूची' चाहिए"

  2. AI उपयोग और प्रतिस्पर्धा की दुविधा: "निषेध समझ में आता है, लेकिन उपयोग न करने पर पीछे छूट जाएंगे"

  3. मनोवैज्ञानिक डेटा का डर: "कमजोरी दिखाने पर विज्ञापन बहुत प्रभावी हो सकते हैं"



अध्याय 5: कंपनियों और स्थानीय सरकारों के दिशानिर्देशों की नवीनतम प्रवृत्तियाँ

  • आंतरिक प्रॉम्प्ट दिशानिर्देश बनाकर, "साझा निषेधित आइटम" को लाल रंग में स्पष्ट करने वाली कंपनियों की संख्या बढ़ रही हैnote.com

  • इनपुट से पहले स्वचालित मास्किंग करने वाले "प्रॉम्प्ट गेटवे" के कार्यान्वयन के उदाहरण सामने आए हैं।

  • **लर्निंग एक्सक्लूजन एग्रीमेंट (डेटा प्रोसेसिंग एडेंडम)** को क्लाउड AI प्रदाता के साथ अनुबंधित कर, अनपेक्षित पुनः अधिगम को रोका जाता है।



अध्याय 6: गहन जोखिम - डीपफेक और राष्ट्रीय स्तर की सूचना युद्ध

वॉल स्ट्रीट जर्नल नेडीपफेक धोखाधड़ी में पिछले वर्ष की तुलना में 700% वृद्धि की चेतावनी दी हैjp.wsj.com। इसके अलावा, चीन द्वारा AI जनित सामग्री के माध्यम से ताइवान और अमेरिका के मतदाताओं को प्रभावित करने के प्रयास की रिपोर्ट भी है, जो दिखाती है कि उन्नत गलत सूचना हमले किसी और की समस्या नहीं हैंjp.wsj.com



अध्याय 7: जापानी उपयोगकर्ताओं के लिए "एआई सुरक्षा चेकलिस्ट"

  1. पेस्ट करने से पहले "5 बड़ी एनजी" को जोर से बोलें

  2. यदि बिल्कुल आवश्यक हो

    • व्यक्तिगत जानकारी→इनिशियलाइजेशन

    • गोपनीय→सिर्फ सारांश

    • वित्तीय और चिकित्सा→संख्याओं का डमीकरण

  3. भावनात्मक सलाह के लिए मानव से संपर्क करें: विशेषज्ञ, मित्र, या स्थानीय हेल्पलाइन का उपयोग करें

  4. प्रॉम्प्ट इतिहास को नियमित रूप से हटाएं: सेवा सेटिंग्स की जाँच अवश्य करें

  5. β सुविधाओं और तृतीय-पक्ष एक्सटेंशन पर ध्यान दें: सीखने के ऑप्ट-आउट की उपलब्धता पढ़ें



अंत में: एआई के "उपयोगकर्ता" बने रहने के लिए

जनरेटिव एआई अद्भुत आउटपुट प्रदान करता है, लेकिन यह हमारे हर कदम को डेटा में बदल देता है और अनिश्चित काल के लिए इसे बनाए रखता है। InfoMoney द्वारा सूचीबद्ध **"पाँच प्रकार की जानकारी जो कभी साझा नहीं की जानी चाहिए"** एक "रेड लाइन" है जो सीमाओं को पार कर सकती है।

जापान के एसएनएस पर "डर के कारण उपयोग नहीं करना" या "डर के बावजूद उपयोग करना" के दो ध्रुवीय विचार बढ़ रहे हैं। हालांकि, एक चरम विकल्प के बजाय, **जोखिम को स्पष्ट रूप से समझना और तकनीकी और संगठनात्मक सुरक्षा उपायों को स्थापित करके "उचित रूप से उपयोग करना"** डिजिटल प्रतिस्पर्धात्मकता बनाए रखने का एकमात्र तरीका है।

यह लेख आपकी एआई साक्षरता को बढ़ाने और सुरक्षित उपयोग में मददगार साबित हो, यही हमारी आशा है।


संदर्भ लेख

"जेमिनी, चैटजीपीटी आदि: एआई के साथ कभी साझा नहीं की जाने वाली 5 जानकारी"
स्रोत: https://www.infomoney.com.br/consumo/informacoes-nunca-compartilhar-ia/