बारीक़ प्रिंट के पीछे: AI ऐप्स और गोपनीयता को समझना

यदि आप इस पृष्ठ के लिंक से किसी सेवा की सदस्यता लेते हैं, तो रीव्स एंड संस लिमिटेड एक कमीशन कमा सकता है। हमारा देखें नैतिक वक्तव्य.

यह पृष्ठ मूल रूप से अंग्रेजी में लिखा गया था। अभी आप एक मशीनी अनुवादित संस्करण हिंदी में देख रहे हैं।

कृत्रिम बुद्धिमत्ता तेजी से समकालीन युग का हिस्सा बन गई है - फिर भी इस विषय से जुड़े नैतिक विचार अभी भी अनसुलझे हैं। कितने उपयोगकर्ताओं को इस बात की पूरी जानकारी है कि वे किस चीज़ के लिए साइन अप कर रहे हैं?

यहां, सबसे लोकप्रिय एआई टूल और ऐप्स के पीछे के नियमों और शर्तों और गोपनीयता नीतियों पर ध्यान देकर, ईकॉमर्स प्लेटफॉर्म आपको उन चीजों के बारे में बताता है, जिन्हें आपको अपने दिन-प्रतिदिन के व्यावसायिक जरूरतों के लिए इन टूल का उपयोग करते समय जानना आवश्यक है।

हमने इन उपकरणों द्वारा एकत्रित किए गए डेटा और व्यक्तिगत जानकारी का विश्लेषण किया है (और किस उद्देश्य से) ताकि आपको यह निर्धारित करने में मदद मिल सके कि कौन सा उपकरण आपके लिए सबसे अच्छा है। एआई उपकरणआपके इच्छित उपयोग के लिए कौन सा सॉफ्टवेयर, प्लेटफॉर्म और सॉफ्टवेयर सबसे उपयुक्त है। हमने शब्दावली को समझने के लिए एक कानूनी विशेषज्ञ से भी परामर्श किया इन उपकरणों के नियमों और शर्तों के पीछे क्या है?

हमने लोकप्रिय AI टूल के लगभग 30 उपलब्ध मोबाइल ऐप संस्करणों के लिए Apple ऐप स्टोर गोपनीयता लेबल का विश्लेषण किया, ताकि यह समझा जा सके कि कौन से टूल आपका डेटा एकत्र करते हैं और क्यों। 

उपयोगकर्ताओं से एकत्रित डेटा (और इसका उद्देश्य) को 14 श्रेणियों में विभाजित किया जाता है, जिससे यह पता लगाना संभव हो जाता है कि कौन से ऐप्स सबसे अधिक उपयोगकर्ता डेटा एकत्रित करते हैं और ट्रैक करते हैं।

अधिक जानकारी के लिए कृपया इस पृष्ठ के अंत में कार्यप्रणाली अनुभाग देखें।

ये AI ऐप्स कौन सा डेटा एकत्र करते हैं?

इस शोध में मूल्यांकन किये गए एआई उपकरण विभिन्न प्रकार के डेटा एकत्र करते हैं। इनमें से कुछ उपयोगकर्ताओं के व्यक्तिगत विवरण पर ध्यान केंद्रित करते हैं - स्क्रीन नाम और बैंक विवरण से लेकर उनके स्वास्थ्य और फिटनेस, और यहां तक ​​कि जाति/नस्ल, यौन अभिविन्यास, लिंग पहचान और राजनीतिक विचारों जैसी संवेदनशील जानकारी भी। 

अन्य उपयोगकर्ताओं द्वारा बनाई गई सामग्री (जैसे ईमेल और संदेश, फोटो, वीडियो और ध्वनि रिकॉर्डिंग) से संबंधित हैं, या उपयोगकर्ता उत्पाद के साथ कैसे इंटरैक्ट करते हैं, जैसे कि उनके इन-ऐप सर्च इतिहास या उन्होंने कौन से विज्ञापन देखे हैं। क्रैश डेटा या ऊर्जा उपयोग दिखाने के लिए एकत्र की गई डायग्नोस्टिक जानकारी अभी भी अधिक अवैयक्तिक है।

ये AI ऐप्स डेटा क्यों एकत्र करते हैं?

वहां ऐप्स द्वारा डेटा एकत्र करने के विभिन्न कारण, जिनमें से कुछ को दूसरों की तुलना में अधिक न्यायोचित माना जा सकता है - उदाहरण के लिए, उपयोगकर्ता की पहचान प्रमाणित करने के लिए बायोमेट्रिक्स या संपर्क जानकारी का उपयोग किया जा सकता है।

इसी प्रकार, किसी ऐप को सही ढंग से काम करने के लिए कुछ डेटा तक पहुंच की आवश्यकता हो सकती है, जिसमें धोखाधड़ी को रोकना या मापनीयता और प्रदर्शन में सुधार करना शामिल है।

अधिक विशेष रूप से, मैसेजिंग ऐप्स को कॉल करने के लिए संपर्कों, फोन कैमरों और माइक्रोफोनों तक पहुंच की आवश्यकता होती है, जबकि टैक्सी या डिलीवरी ऐप्स के लिए जियोलोकेशन आवश्यक है।

डेटा एकत्र करने के लिए तर्कसंगत रूप से कम आवश्यक कारणों में शामिल हैं ऐप के डेवलपर द्वारा विज्ञापन या मार्केटिंग (उदाहरण के लिए, अपने उपयोगकर्ताओं को मार्केटिंग संचार भेजना); तीसरे पक्ष के विज्ञापन को सक्षम करना (उदाहरण के लिए, उपयोगकर्ता पर लक्षित विज्ञापनों को निर्देशित करने के लिए अन्य ऐप्स से डेटा ट्रैक करना); और मौजूदा सुविधाओं की प्रभावशीलता का आकलन करने या नई सुविधाओं की योजना बनाने सहित उद्देश्यों के लिए उपयोगकर्ता व्यवहार का विश्लेषण करना।

हे मोबाइल उपयोगकर्ता 👋 नीचे दी गई तालिकाएँ हो सकती हैं क्षैतिज रूप से स्क्रॉल किया गया सभी डेटा देखने के लिए, लेकिन यह पृष्ठ निश्चित रूप से बेहतर दिखता है Desktop.

AI ऐप जो आपका डेटा एकत्र करके उसे तीसरे पक्ष के विज्ञापनदाताओं के साथ साझा करते हैं

बटनों वाले स्तंभ शीर्षलेख क्रमबद्ध करने योग्य हैं।
एआई ऐप दूसरों के साथ साझा किया गया % डेटा ब्राउजिंग इतिहास संपर्क सूचना Identifiers स्थान अन्य आंकड़ा खरीद खोज इतिहास उपयोग डेटा एकत्रित डेटा बिंदुओं की संख्या
Canva 36% तक 2 2 1 1 2 8
Duolingo 36% तक 2 1 1 1 2 7
गूगल सहायक 21% तक 1 1 1 3
बिंग 14% तक 1 1 2
पिक्साई 14% तक 1 1 2
वोम्बो 14% तक 1 1 2
ChatGPT 7% 1 1
जिन्न ए.आई. 7% 1 1
लेंसा 7% 1 1
व्याख्यान देना 7% 1 1
स्टाररीएआई 7% 1 1

हमारे शोध में शामिल सभी AI ऐप्स में से, कैनवा, एक ग्राफिक डिज़ाइन टूल, तीसरे पक्ष के विज्ञापन उद्देश्यों के लिए अपने उपयोगकर्ताओं से सबसे अधिक डेटा एकत्र करता है — लगभग 36%। इसके विपरीत, इस उद्देश्य के लिए सबसे कम डेटा एकत्र करने वाले पांच ऐप केवल 7% से थोड़ा ज़्यादा डेटा एकत्र करते हैं।

कैनवा का ऐप आपसे जो डेटा एकत्र करता है और तीसरे पक्ष के साथ साझा करता है, उसमें आपका खोज इतिहास, स्थान, ईमेल पता और ऊपर दी गई तालिका में दिखाई गई अन्य जानकारी शामिल है। 

कैनवा के ठीक बाद गेमीफाइड भाषा-शिक्षण ऐप है Duolingo (~36%), गूगल सहायक (~21%), और माइक्रोसॉफ्ट का बिंग (~14%) — जिनमें से सभी आपके डेटा को तीसरे पक्ष के साथ भी साझा करें

सबसे कम डेटा एकत्र करने वाले पांच ऐप्स में से केवल तारायै (एक छवि जनरेटर) केवल उपयोग डेटा साझा करने तक ही सीमित है.

AI ऐप्स जो अपने फायदे के लिए आपका डेटा एकत्र करते हैं

बटनों वाले स्तंभ शीर्षलेख क्रमबद्ध करने योग्य हैं।
ऐप ऐप के अपने लाभ के लिए एकत्रित किया गया % डेटा ब्राउजिंग इतिहास संपर्क सूचना Identifiers स्थान खरीद खोज इतिहास उपयोग डेटा एकत्रित डेटा बिंदुओं की संख्या
Canva 43% तक 2 2 1 1 1 2 9
Facetune 36% तक 2 4 2 2 4 14
अमेज़ॅन अलेक्सा 36% तक 4 2 1 1 2 10
गूगल सहायक 36% तक 1 2 2 1 2 8
फोटो 29% तक 1 1 1 1 4
Duolingo 21% तक 2 1 1 4
स्टाररीएआई 14% तक 2 1 3
बिंग 14% तक 1 1 2
लेंसा 14% तक 1 1 2
ऊद 7% 2 2
आप 7% 1 1
पो 7% 1 1
पिक्साई 7% 1 1
व्याख्यान देना 7% 1 1
वोम्बो 7% 1 1

कैनवा अपने स्वयं के विज्ञापन या विपणन उद्देश्यों के लिए उपयोगकर्ता डेटा एकत्र करने वाले एआई ऐप्स की सूची में भी शीर्ष पर हैऐसा करने के लिए, कैनवा एकत्रित करता है उनके उपयोगकर्ताओं का लगभग 43% डेटा.

तीसरे स्थान पर, अमेज़न एलेक्सा ने 36% की कमाई की इसी उद्देश्य के लिए आपके डेटा का उपयोग किया जाता है। इसमें आपका ईमेल पता, भौतिक पता, फ़ोन नंबर, खोज इतिहास और खरीदारी इतिहास, साथ ही पाँच अन्य डेटा बिंदु शामिल हैं। गूगल सहायक इस कारण से, यह समान प्रतिशत डेटा एकत्रित करता है और साझा करता है, हालांकि यह आठ अलग-अलग डेटा बिंदुओं पर होता है, जबकि अमेज़न एलेक्सा दस प्रतिशत डेटा एकत्रित करता है।

RSI टेक्स्ट-टू-स्पीच वॉयस जनरेटर, स्पीचीफाई, उन ऐप्स में से है जो सबसे कम डेटा एकत्र करते हैं। ऐप्पल ऐप स्टोर लिस्टिंग के गोपनीयता लेबल के अनुसार, स्पीचिफ़ाई एकत्रित करता है सिर्फ़ एक डेटा बिंदु अपने लाभ के लिए; आपकी डिवाइस आई.डी.

AI ऐप्स जो किसी भी उद्देश्य के लिए आपका डेटा एकत्र करते हैं

बटनों वाले स्तंभ शीर्षलेख क्रमबद्ध करने योग्य हैं।
ऐप % डेटा एकत्रित ब्राउजिंग इतिहास संपर्क सूचना संपर्क निदान वित्तीय जानकारी स्वास्थ्य और रखरखाव Identifiers स्थान अन्य आंकड़ा खरीद खोज इतिहास संवेदनशील जानकारी उपयोग डेटा उपयोगकर्ता सामग्री एकत्रित डेटा बिंदुओं की संख्या
अमेज़ॅन अलेक्सा 93% तक 24 4 9 3 4 10 8 4 5 5 4 13 23 116
गूगल सहायक 86% तक 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% तक 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% तक 11 3 1 8 5 4 5 10 6 53
ऊद 57% तक 7 3 5 7 2 3 2 11 40
पो 57% तक 2 2 3 6 2 3 2 5 25
Facetune 50% तक 6 8 18 8 8 14 2 64
बिंग 50% तक 1 2 6 3 3 2 3 20
डीपसीक 50% तक 2 3 4 1 1 2 3 16
मेम 43% तक 6 4 6 6 6 4 32
एल्सा बोलो 43% तक 2 6 6 3 3 3 23
फोटो 43% तक 2 1 9 3 4 1 20
Trint 43% तक 1 2 1 4 1 2 11
ChatGPT 36% तक 4 8 5 7 2 26
व्याकुलता एआई 36% तक 6 6 2 1 6 21
/ 1 2 है

सभी AI मॉडलों को मशीन लर्निंग के माध्यम से किसी न किसी प्रकार के प्रशिक्षण की आवश्यकता होती है - जिसका अर्थ है कि उन्हें डेटा की जरूरत है.

यदि हम चाहते हैं कि AI उपकरण बेहतर हों और अधिक उपयोगी बनें, हमारी गोपनीयता को इस डेटा को प्रदान करने के विरुद्ध एक आवश्यक समझौता के रूप में देखा जा सकता है।

हालाँकि, सवाल यह है कि उपयोगिता और शोषण के बीच की रेखा इसे क्यों खींचा जाना चाहिए, यह एक कांटेदार सवाल है।

इसकी वर्तमान बदनामी को देखते हुए, डीपसीक पर ध्यान देना उचित हैएप्पल ऐप स्टोर पर इसकी लिस्टिंग में कहा गया है कि डीपसीक अपने लाभ के लिए (उदाहरण के लिए, डीपसीक की अपनी मार्केटिंग और विज्ञापन) या तीसरे पक्ष के साथ साझा करने के लिए उपयोगकर्ता डेटा एकत्र नहीं करता है।

लेकिन यह बताना उचित होगा कि लेकिन हाल ही  गोपनीयता नीति अन्यथा कहती है (इस पर बाद में और अधिक जानकारी दी जाएगी) 

RSI डीपसीक ऐप अपने उपयोगकर्ताओं का 50% डेटा खुद ही एकत्रित करता है, जो डीपसीक के एनालिटिक्स और ऐप फंक्शनलिटी को पूरा करता है। तुलना के लिए, चैटजीपीटी ऐप ने 36% संग्रह किया.

कुछ मीडिया आउटलेट्स ने डीपसीक के चीनी मूल (डेटा संग्रह और गलत सूचना के संभावित प्रसार दोनों के संदर्भ में) और अमेरिकी प्रतिद्वंद्वियों को कमतर आंकने से संबंधित सुरक्षा जोखिमों के बारे में चिंता व्यक्त की है। दोनों को कम करने की संभावना नहीं है डीपसीक की नियम एवं शर्तें और गोपनीयता नीति, जिसमें लगभग पढ़ने के लिए 35 मिनट, और इस प्रकार रेट किए गए हैं “बहुत कठिन” फ्लेश-किनकैड पठनीयता पैमाने पर।

चाहे आपके डेटा का उपयोग किसी भी तरह से किया जाए, अमेज़न एलेक्सा किसी भी अन्य AI ऐप की तुलना में अपने उपयोगकर्ताओं का अधिक डेटा एकत्र करता है इस शोध में शामिल है। कुल मिलाकर, यह एकत्रित करता है 93% तक आपके डेटा (या 116 व्यक्तिगत मीट्रिक, मुख्य रूप से संपर्क जानकारी, उपयोगकर्ता सामग्री और उपयोग डेटा) का।

गूगल सहायक अगला आता है, संग्रह करना 86% तक , द्वारा पीछा Duolingo, जो एकत्रित करता है 79% तक .

पैमाने के दूसरे छोर पर, एआई इमेज जनरेटर, स्टेबल डिफ्यूजन, कोई डेटा एकत्र नहीं करता हैयह एप्पल ऐप स्टोर लिस्टिंग पर गोपनीयता लेबल के अनुसार है।

हालांकि यह सच है कि सभी जनरेटिव ए.आई. मॉडलों को प्रशिक्षित करने के लिए भारी मात्रा में डेटा की आवश्यकता होती है, यह प्रशिक्षण विशिष्ट ऐप के विकास से पहले होता है। ज़्यादातर मामलों में, ऐप निर्माता अपने द्वारा उपयोग किए जाने वाले AI मॉडल के मालिक नहीं होते हैं; इसलिए उपयोगकर्ता डेटा संग्रह ऐप की कार्यक्षमता से संबंधित होता है। इससे यह स्पष्ट हो सकता है कि जिन ऐप्स की हमने जांच की है उनमें से कुछ के बारे में उपरोक्त तालिका में कोई जानकारी क्यों नहीं दी गई है।

AI उपकरणों के पीछे के नियमों और शर्तों को समझना

अब, आइये देखें कानूनी दस्तावेज़ विभिन्न AI उपकरणों के पीछे की सच्चाई जानने के लिए उन्हें पढ़ना कितना आसान या कठिन हैयह फ्लेश-किनकैड रीडिंग-ग्रेड-लेवल टेस्ट पर आधारित है।

यह प्रणाली पाठों को अमेरिकी स्कूल पढ़ने के स्तर (पांचवीं से 12वीं कक्षा तक), फिर कॉलेज, कॉलेज ग्रेजुएट और प्रोफेशनल के बराबर मानती है। छठी कक्षा के स्तर के पाठों को "उपभोक्ताओं के लिए संवादी अंग्रेजी" के रूप में परिभाषित किया गया है, जबकि पेशेवर-रेटेड पाठों को "पढ़ने में बेहद कठिन" के रूप में वर्णित किया गया है।

पठनीयता स्कोर जितना कम होगा, पाठ को पढ़ना उतना ही कठिन होगा।

बटनों वाले स्तंभ शीर्षलेख क्रमबद्ध करने योग्य हैं।
Clipchamp 3 घंटे 16 मिनट 27.2 🤯🤯🤯🤯🤯🤯🤯
बिंग 2 घंटे 20 मिनट 35.4 मैं
वेद.आईओ 2 घंटे 15 मिनट 37.9 मैं
Facetune 2 घंटे 4 मिनट 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 घंटे 47 मिनट 31.4 🤯🤯🤯🤯🤯🤯
ऊद 1 घंटे 11 मिनट 32.4 🤯🤯🤯🤯🤯🤯
सूर्यकांत मणि 1 घंटे 9 मिनट 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
गामा 1 घंटे 6 मिनट 30.9 🤯🤯🤯🤯🤯🤯
व्याख्यान देना 1 घंटे 6 मिनट 35.0 🤯🤯🤯🤯🤯🤯
मार्ग 1 घंटे 2 मिनट 28.3 🤯🤯🤯🤯🤯🤯🤯
/ 1 9 है

2023 में, ब्रिटिश व्यावसायिक बीमा कंपनी सुपरस्क्रिप्ट 500 लघु एवं मध्यम आकार के उद्यमों (एसएमई) के मालिकों से सर्वेक्षण किया गया यह पता लगाने के लिए कि उनका सबसे अधिक समय किस चीज़ में व्यतीत होता है।

उल्लेखनीय रूप से, 'पर्याप्त नींद लेना' - जो शारीरिक और मानसिक स्वास्थ्य तथा संज्ञानात्मक कार्य के लिए महत्वपूर्ण है - तीसरे स्थान पर है, जो 'लंबे समय तक काम करना' और 'कर रिटर्न निपटाना' से पीछे है।

सर्वेक्षण में शामिल एक तिहाई लोगों ने महसूस किया कि काम के घंटों के दौरान सभी प्रशासनिक कार्य करना संभव नहीं है, और उन्होंने कहा यह सब करने के लिए दिन में चार अतिरिक्त घंटे की जरूरत थी.

इससे यह पता चलता है कि एसएमई चलाना कितना कष्टकारी हो सकता है, तथा यह कि एसएमई चलाना कितना कष्टदायक हो सकता है। नियम व शर्तों को पढ़ने के लिए आवश्यक समय जिन उपकरणों पर वे भरोसा करते हैं उनके पीछे आसानी से नहीं मिलता.

इस संदर्भ में, ओटर, ट्रिंट और डिस्क्रिप्ट जैसे ट्रांस्क्राइबिंग टूल्स के लिए नियम एवं शर्तों का 40 मिनट का पठन समय अत्यधिक महत्वपूर्ण है। 

तथा यह मानते हुए कि इसे समझना संभव है सबसे कठिन नियम और शर्तें। यही कारण है कि हमने एक कानूनी विशेषज्ञ की विशेषज्ञता की मांग की।

जोसिल्डा एन्ड्रेजकानूनी पेशेवर और लाइसेंस प्राप्त वकील, ने फॉर्च्यून 500 ग्राहकों की ओर से जटिल कानूनी मामलों का संचालन किया है और विभिन्न निगमों को परामर्श प्रदान किया है।

हाल ही में, एक स्वतंत्र सलाहकार के रूप में, उन्होंने बौद्धिक संपदा कानून पर ध्यान केंद्रित ब्लॉकचेन प्रौद्योगिकी और कृत्रिम बुद्धिमत्ता के संयोजन पर।

जोसिल्डा एन्ड्रेज (एलएलएम) एक कानूनी पेशेवर और लाइसेंस प्राप्त वकील हैं, जिन्हें बौद्धिक संपदा (आईपी) कानून में विशेषज्ञता प्राप्त है।

एक कानूनी सलाहकार के रूप में उनका करियर एक प्रतिष्ठित अंतरराष्ट्रीय कानूनी फर्म में शुरू हुआ, जो फॉर्च्यून 500 ग्राहकों को सेवाएं प्रदान करती थी। यहाँ, जोसिल्डा ने जटिल कानूनी मामलों को संभाला और विभिन्न निगमों को परामर्श प्रदान किया।

नवाचार, रचनात्मकता और उभरती प्रौद्योगिकियों में रुचि से प्रेरित होकर, जोसिल्डा ने स्वतंत्र परामर्श व्यवसाय में कदम रखा और ब्लॉकचेन प्रौद्योगिकी और कृत्रिम बुद्धिमत्ता के साथ अंतर्संबंध को कवर करते हुए बौद्धिक संपदा कानून पर ध्यान केंद्रित किया।

जोसिल्डा के पास कानून में दो मास्टर डिग्री हैं; एक तिराना विश्वविद्यालय से सिविल और वाणिज्यिक कानून में विशेषज्ञता, और दूसरी झोंगनान अर्थशास्त्र और विधि विश्वविद्यालय से बौद्धिक संपदा कानून पर केंद्रित।

इस प्रकार, जोसिल्डा इन AI उपकरणों के कानूनी दस्तावेजों के चयन की समीक्षा करने के लिए विशिष्ट रूप से स्थित है, हममें से उन लोगों के लाभ के लिए मुख्य बिंदु निकाल रहा हूँ जिनके पास दो मास्टर ऑफ लॉ की डिग्री नहीं है।

उनके सारांश नीचे दिए गए हैं:

जेमिनी (पूर्व में बार्ड) को प्रशिक्षण के स्रोतों की घोषणा करने की कोई बाध्यता नहीं है, इसलिए हम यह नहीं जाँच सकते कि यह कॉपीराइट की गई सामग्रियों पर प्रशिक्षित है या नहीं। जेमिनी को ऐसे उल्लंघन की ज़िम्मेदारियों से बाहर नहीं रखा गया है; यदि कोई कॉपीराइट स्वामी आरोप लगाता है, तो जेमिनी कुछ ज़िम्मेदारी वहन करती है। लेकिन यह ध्यान रखना महत्वपूर्ण है कि जेमिनी को उपयोगकर्ता द्वारा दी गई जानकारी के आधार पर प्रशिक्षित किया जाता है। इसके लिए, जेमिनी को उपयोगकर्ता से लाइसेंस की आवश्यकता होती हैयदि उपयोगकर्ता जेमिनी को लाइसेंस देने के लिए सहमत है, लेकिन वे (उपयोगकर्ता) वास्तव में कॉपीराइट के मालिक नहीं हैं, तो जिम्मेदारी उपयोगकर्ता पर स्थानांतरित हो जाती है।

उपयोगकर्ता अपने इनपुट और संकेतों का स्वामित्व बनाए रखते हैं, लेकिन आउटपुट स्वामित्व अधिक जटिल है। जेमिनी अपनी शर्तों में इसे स्पष्ट नहीं करता है। कई कानून मशीनों के बौद्धिक संपदा अधिकारों को मान्यता नहीं देते हैं। हालाँकि, यह तर्क देना संदिग्ध है कि आउटपुट "मानव-निर्मित" है, भले ही उपयोगकर्ता इनपुट का मालिक हो।

सटीकता और विश्वसनीयता

सटीक जानकारी के लिए जेमिनी पर भरोसा करते समय हमेशा विवेक का प्रयोग करें। सेवा की शर्तों में कहा गया है कि सटीकता को स्वचालित रूप से नहीं मान लिया जाना चाहिए इसलिए, आपको जेमिनी से उत्पन्न सभी सामग्री की तथ्य-जांच करनी चाहिए। 

व्यवसाय मालिकों को कभी भी जेमिनी से प्राप्त आउटपुट को क्रॉस-रेफ़रेंसिंग, अपडेट की समीक्षा और सटीकता के लिए विशेषज्ञों से जाँच किए बिना प्रकाशित नहीं करना चाहिए। अन्यथा, वे भ्रामक जानकारी प्रकाशित करने का जोखिम उठाते हैं, जिसके कारण प्रतिष्ठा या कानूनी परिणाम हो सकते हैं।

सुरक्षा और गोपनीयता

गूगल (जेमिनी का मालिक) अपनी गोपनीयता नीति में इस बारे में कोई जानकारी नहीं देता कि वह गोपनीय डेटा को कैसे संभालता है।

प्रयोग

गूगल ने अपनी सेवा शर्तों में इस बारे में कुछ नहीं कहा है कि जेमिनी द्वारा तैयार की गई सामग्री का इस्तेमाल व्यावसायिक उद्देश्यों के लिए किया जा सकता है या नहीं। इसमें बताया गया है बौद्धिक संपदा अधिकार जैसी चीज़ों के लिए प्रतिबंध लेकिन एआई-जनरेटेड सामग्री के लिए विशेष रूप से कुछ नहीं।

वर्तमान में, किसी भी कानून में ChatGPT को सार्वजनिक रूप से यह घोषित करने की आवश्यकता नहीं है कि उसका मॉडल किस पर प्रशिक्षित है। इसलिए, क्योंकि यह अपने स्रोतों को प्रकट नहीं करता है, हम यह नहीं जान सकते हैं कि ChatGPT कॉपीराइट कानूनों द्वारा संरक्षित सामग्री वितरित या संसाधित करता है या नहीं। यदि कोई व्यक्ति ChatGPT से कॉपीराइट की गई सामग्री की पहचान करता है, वे दावा कर सकते हैं उस सामग्री को हटाने के लिए.

चैटजीपीटी की शर्तों के अनुसार उपयोगकर्ता का इनपुट, भले ही कॉपीराइट हो, सेवा को बेहतर बनाने और मॉडल को प्रशिक्षित करने के लिए उपयोग किया जाता है; और उपयोगकर्ता इससे बाहर नहीं निकल सकता। ChatGPT की शर्तों के अनुसार उपयोगकर्ता सभी इनपुट और आउटपुट सामग्री का स्वामित्व (यदि इनपुट सामग्री पहले से ही कानूनी रूप से उपयोग की जा चुकी है), लेकिन इससे यह गारंटी नहीं मिलती कि उपयोगकर्ता के पास उस इनपुट और आउटपुट सामग्री का कॉपीराइट है। इसके अलावा, उपयोगकर्ता चैटजीपीटी से किसी भी चीज़ को 'मानव-जनित' के रूप में पारित नहीं कर सकते हैं।

सटीकता और विश्वसनीयता

उपयोगकर्ताओं को ChatGPT से सभी जानकारी सत्यापित करनी चाहिए। ऐसा इसलिए है क्योंकि ChatGPT सटीक जानकारी प्रदान करने की कोई जिम्मेदारी नहीं लेता है, नवीनतम सामग्री। वारंटी अनुभाग के अस्वीकरण के अनुसार, उपयोगकर्ता सटीकता के सभी जोखिम उठाता है, गुणवत्ता, विश्वसनीयता, सुरक्षा और पूर्णता। इसलिए, हमेशा ChatGPT से तथ्यों को सत्यापित करें; क्रॉस-रेफरेंस, अपडेट के लिए समीक्षा करें और सटीकता के लिए विशेषज्ञों से भी जांच करें। यदि व्यवसाय के मालिक प्रकाशन से पहले ChatGPT सामग्री की सटीकता की जांच नहीं करते हैं, तो उन्हें कानूनी या प्रतिष्ठा संबंधी परिणामों का सामना करना पड़ सकता है। 

सुरक्षा और गोपनीयता

चैटजीपीटी इनपुट से जानकारी एकत्र करता है - जिसमें व्यक्तिगत जानकारी भी शामिल है - अपने मॉडलों को संभावित रूप से प्रशिक्षित करने के लिए (गोपनीयता नीति के अनुसार). उपयोगकर्ता ऑप्ट आउट कर सकता है। यदि डेटा API कनेक्शन (चैटजीपीटी एंटरप्राइज, टीम, आदि) के माध्यम से सबमिट किया जाता है तो स्थिति बदल जाती है; ऐसा इसलिए है क्योंकि ChatGPT व्यावसायिक ग्राहकों से प्राप्त इनपुट का उपयोग नहीं करता है मॉडलों को प्रशिक्षित करने के लिए। ChatGPT में सुरक्षा उपाय मौजूद हैं, लेकिन सुरक्षा उल्लंघन के लिए जिम्मेदारी को स्पष्ट रूप से संबोधित नहीं करता है। यह सब क्षेत्रीय कानूनों पर निर्भर करता है। 

प्रयोग

चैटजीपीटी उपयोगकर्ता अपने इनपुट और आउटपुट सामग्री के स्वामी होते हैंइसलिए, उपयोगकर्ताओं को यह सुनिश्चित करना होगा कि सामग्री किसी कानून का उल्लंघन नहीं करती है। उपयोगकर्ता यह दावा नहीं कर सकते कि सामग्री मानव निर्मित है, लेकिन आपको यह भी नहीं कहना है कि यह AI द्वारा जनरेट किया गया है। जब तक उपयोगकर्ता क्षेत्रीय कानूनों और उपयोग की शर्तों का पालन करते हैं, तब तक ChatGPT सामग्री का उपयोग व्यावसायिक उद्देश्यों के लिए, सोशल मीडिया पर, भुगतान किए गए विज्ञापन और अन्य चैनलों के लिए किया जा सकता है। आपको सलाह दी जाती है कि ChatGPT से सामग्री प्रकाशित करने से पहले तथ्यों की जाँच करें, संदर्भ दें और कानूनों का पालन करें। 

न तो गोपनीयता नीति और न ही नियम यह निर्दिष्ट करते हैं कि डीपसीक के एआई टूल को कॉपीराइट सामग्री पर प्रशिक्षित किया गया है या नहीं। इसके अलावा, वे इस बात की भी कोई गारंटी नहीं देते हैं कि आउटपुट किसी के कॉपीराइट का उल्लंघन नहीं करेंगे। डीपसीक की उपयोग की शर्तें बताती हैं कि उपयोगकर्ताओं को उनके इनपुट पर अधिकार बरकरार रहते हैं (प्रॉम्प्ट्स) का उपयोग नहीं किया जा सकता, लेकिन इसका यह अर्थ नहीं है कि वे सर्वप्रथम कॉपीराइट संरक्षित हैं, इसलिए उपयोगकर्ताओं को यह सुनिश्चित करने के लिए कदम उठाने चाहिए कि वे जो प्रॉम्प्ट्स के रूप में उपयोग कर रहे हैं, वह किसी अन्य की बौद्धिक संपदा नहीं है।

शर्तों में यह भी स्पष्ट रूप से कहा गया है कि उपयोगकर्ता सभी इनपुट और संबंधित आउटपुट के लिए जिम्मेदार हैइसलिए, इसे ध्यान में रखते हुए, उपयोगकर्ताओं को कानूनी सलाह लेकर और/या कॉपीराइट डेटाबेस का उपयोग करके स्वतंत्र रूप से इनका सत्यापन करना चाहिए। उदाहरण के लिए, यू.एस. कॉपीराइट कार्यालय सार्वजनिक कैटलॉग उपयोगकर्ताओं को अमेरिका में पंजीकृत कार्यों की खोज करने की अनुमति देता है, जबकि गूगल की रिवर्स इमेज सर्च यह जांचने में मदद करता है कि कोई छवि पहले प्रकाशित हुई है या कॉपीराइट है।

सटीकता और विश्वसनीयता

डीपसीक की उपयोग की शर्तें कहती हैं कि आउटपुट AI द्वारा उत्पन्न होते हैं, और इसलिए उनमें त्रुटियाँ और/या चूक हो सकती हैं। विशेष रूप से चिकित्सा, कानूनी और वित्तीय मुद्दों को संदर्भित करता है जिसके बारे में उपयोगकर्ता डीपसीक से पूछ सकते हैं, और डीपसीक के आउटपुट सलाह नहीं हैं। लेकिन अधिक व्यापक रूप से, यह 'पेशेवर मुद्दों' के बारे में भी यही कहा गया हैजो कि कुछ भी हो सकता है - विपणन और अनुसंधान से लेकर प्रौद्योगिकी और शिक्षा और उससे भी आगे - और यह कि आउटपुट 'की राय का प्रतिनिधित्व करते हैं कोई व्यावसायिक क्षेत्रइसलिए उपयोगकर्ताओं को डीपसीक के सभी आउटपुट की सटीकता के लिए स्वतंत्र रूप से सत्यापन करना चाहिए।

सुरक्षा और गोपनीयता

डीपसीक की गोपनीयता नीति बताती है कि उपयोगकर्ता इनपुट को आउटपुट उत्पन्न करने के लिए संसाधित किया जाता है, लेकिन साथ ही डीपसीक की सेवा में सुधार करें। यह भी शामिल है 'प्रशिक्षण और [अपनी] तकनीक में सुधार'। इसलिए उपयोगकर्ताओं को संवेदनशील जानकारी दर्ज करने में सावधानी बरतनी चाहिए, और भले ही डीपसीक ने 'व्यावसायिक रूप से उचित' इनपुट के रूप में उपयोग किए जाने वाले डेटा और सूचना की सुरक्षा के लिए उपाय मौजूद होने के बावजूद, यह कोई पूर्ण गारंटी प्रदान नहीं करता है। डीपसीक की शर्तों में कहा गया है कि वे सार्वजनिक मंचों पर इनपुट या आउटपुट प्रकाशित नहीं करते हैं, लेकिन कुछ को तीसरे पक्ष के साथ साझा किया जा सकता है.

प्रयोग

डीपसीक के माध्यम से उपयोगकर्ता द्वारा तैयार की गई किसी भी सामग्री का उपयोग व्यावसायिक उद्देश्यों के लिए किया जा सकता है, लेकिन साहित्यिक चोरी और सटीकता के बारे में ग्रे क्षेत्रों के कारण, उपयोगकर्ताओं को इस तरह से उपयोग करने से पहले सामग्री को सत्यापित करने के लिए कदम उठाने चाहिए। डीपसीक की सेवा की शर्तें इस बारे में किसी सीमा का संदर्भ नहीं देती हैं कि उपयोगकर्ता दुनिया में कहां इस सामग्री को प्रकाशित कर सकते हैं, लेकिन वे स्पष्ट रूप से बताते हैं कि उपयोगकर्ताओं को इसे एआई-जनरेटेड घोषित करें ताकि 'सामग्री की कृत्रिम प्रकृति के प्रति जनता को सचेत किया जा सके'।

कैनवा को कानूनी तौर पर प्रशिक्षण डेटा के लिए अपने स्रोतों को प्रकट करने की आवश्यकता नहीं है। इसलिए, हमें नहीं पता कि कॉपीराइट सामग्री का उपयोग किया जाता है या नहीं। उपयोगकर्ता सभी इनपुट और आउटपुट सामग्री का स्वामी होता है (कैनवा नहीं), लेकिन कैनवा अपनी सेवाओं को बेहतर बनाने के लिए उस सामग्री का उपयोग कर सकता है। 

सटीकता और विश्वसनीयता

कैनवा भालू सामग्री की सटीकता के लिए कोई जिम्मेदारी नहींउपयोगकर्ता को हमेशा तथ्यों की पुष्टि करनी चाहिए। 

सुरक्षा और गोपनीयता

Canva अपने मॉडल को प्रशिक्षित करने के लिए इनपुट सामग्री का उपयोग करता है। यह है इनपुट के लिए गोपनीय या व्यक्तिगत जानकारी का उपयोग करने से बचना उपयोगकर्ता की जिम्मेदारी हैकैनवा मॉडल प्रशिक्षण के लिए ऐसे इनपुट को फ़िल्टर करने की कोशिश करता है, लेकिन इसकी कोई गारंटी नहीं है। कैनवा का AI टूल उपयोगकर्ता द्वारा उत्पन्न सुरक्षा समस्याओं के लिए ज़िम्मेदार नहीं है।

प्रयोग

कैनवा उपयोगकर्ता उपयोग कर सकते हैं उत्पन्न सामग्री वाणिज्यिक प्रयोजनों के लिए। स्थितियां, हालाँकि, प्रकाशित न करना पसंद है भ्रामक सामग्रीकंपनी के पास एक निषिद्ध वस्तुओं की सूची, “एक अच्छा इंसान बनें” शीर्षक वाले अनुभाग के अंतर्गत।

चैटजीपीटी की तरह ही, DALL-E अपने मॉडल प्रशिक्षण के लिए स्रोतों की घोषणा नहीं करता है। हालाँकि, अगर आपको कॉपीराइट वाली सामग्री मिलती है, तो आप हटाने के लिए दावा प्रस्तुत कर सकते हैंयह जांचना मुश्किल है कि DALL-E कॉपीराइट का उल्लंघन करता है या नहीं, क्योंकि कोई भी कानून DALL-E को अपने डेटा स्रोतों को प्रकट करने की आवश्यकता नहीं रखता है। शर्तों के अनुसार, उपयोगकर्ता इनपुट, DALL-E के मॉडल को प्रशिक्षित करने के लिए इस्तेमाल किया जा सकता है — भले ही वह कॉपीराइट वाली सामग्री हो। उपयोगकर्ता इससे बाहर निकल सकता है।  

DALL-E उपयोगकर्ताओं की अपनी इनपुट और आउटपुट सामग्री (DALL-E नहीं), लेकिन इसका मतलब यह नहीं है कि उपयोगकर्ता के पास उक्त सामग्री पर कॉपीराइट है। साथ ही, उपयोगकर्ता यह दावा नहीं किया जा सकता कि DALL-E की सामग्री मानव निर्मित है.

सटीकता और विश्वसनीयता

DALL-E भालू गलत सामग्री के लिए कोई जिम्मेदारी नहीं. इसकी शर्तें सभी उत्तरदायित्वों को उपयोगकर्ता पर डालती हैं। इन उत्तरदायित्वों में सामग्री की विश्वसनीयता, सटीकता, गुणवत्ता, सुरक्षा और पूर्णता शामिल हैं। इसलिए, प्रकाशन से पहले, उपयोगकर्ताओं को हमेशा क्रॉस-रेफरेंस लेना चाहिए, अपडेट की समीक्षा करनी चाहिए, तथ्यों को सत्यापित करना चाहिए और विशेषज्ञों से जांच करनी चाहिएक्योंकि गलत जानकारी प्रकाशित करने से प्रतिष्ठा या कानूनी नुकसान हो सकता है। 

सुरक्षा और गोपनीयता

DALL-E की गोपनीयता नीति और नियम एवं शर्तें कभी भी सुरक्षा भंग होने की स्थिति में जिम्मेदारी के बारे में स्पष्ट रूप से नहीं बताती हैं। हालाँकि, DALL-E के पास सुरक्षा उपाय मौजूद हैं। हैक होने की स्थिति में कौन ज़िम्मेदार होगा, यह क्षेत्रीय कानूनों पर निर्भर करता है।

DALL-E मॉडल प्रशिक्षण के लिए उपयोगकर्ता का इनपुट एकत्रित करता है, यहां तक ​​कि व्यक्तिगत जानकारी भी, लेकिन आप इससे बाहर निकल सकते हैं। हालाँकि, API के साथ, DALL-E इनपुट डेटा को अलग तरीके से संभालता है; यह अपने मॉडलों को प्रशिक्षित करने के लिए व्यावसायिक उपयोगकर्ताओं के डेटा का उपयोग नहीं करता है

प्रयोग

RSI उपयोगकर्ता DALL-E इनपुट और आउटपुट सामग्री का स्वामी है; उन्हें यह भी सुनिश्चित करना होगा कि सामग्री किसी भी कानून या DALL-E शर्तों का उल्लंघन नहीं करती है। आप यह दावा नहीं कर सकते कि DALL-E की सामग्री मानव-जनित है, लेकिन न ही आपको यह कहना है कि यह एआई द्वारा उत्पन्न है। 

आप DALL-E का उपयोग वाणिज्यिक उद्देश्यों के लिए कर सकते हैं, बशर्ते आप सभी कानूनों और DALL-E शर्तों का पालन करें। नियम बदल सकते हैं, लेकिन लेखन के समय, उपयोगकर्ताओं को सोशल मीडिया, विज्ञापनों और अन्य चैनलों पर DALL-E सामग्री प्रकाशित करने के लिए स्वागत है। उपयोगकर्ताओं को किसी भी कानून का उल्लंघन करने से बचने के लिए हमेशा उचित संदर्भ और तथ्य-जांच सटीकता का उपयोग करना चाहिए।

बिंग को अपने डेटा प्रशिक्षण स्रोतों को साझा करने की कोई बाध्यता नहीं है, जिससे यह पता लगाना बहुत मुश्किल हो जाता है कि बिंग एआई अनजाने में कॉपीराइट की गई सामग्री का उपयोग करता है या नहीं। हालांकि पहचानना मुश्किल है, उपयोगकर्ता कॉपीराइट की गई सामग्री पर दावा कर सकते हैं। Microsoft सेवा अनुबंध कहता है कि बिंग AI अपने मॉडल को बेहतर बनाने के लिए उपयोगकर्ता इनपुट और आउटपुट लेता है, लेकिन बौद्धिक संपदा की चोरी को रोकने के लिए कोई औपचारिक व्यवस्था नहीं है।

RSI सेवा अनुबंध कहता है कि उपयोगकर्ता Microsoft को आपकी सामग्री का उपयोग करने के लिए विश्वव्यापी और रॉयल्टी-मुक्त बौद्धिक संपदा लाइसेंस प्रदान करते हैं. इसके अलावा, बिंग/माइक्रोसॉफ्ट एआई मॉडल को प्रशिक्षित करने के लिए उपयोगकर्ता इनपुट लेता है.

सटीकता और विश्वसनीयता

माइक्रोसॉफ्ट सामग्री की सटीकता या समयबद्धता की कोई गारंटी नहीं देता है इसकी AI सेवाओं से कोई फ़र्क नहीं पड़ता। इसलिए, आपको Microsoft के AI टूल से जुड़ी हर चीज़ की सच्चाई की जाँच करनी चाहिए, खासकर अगर आप एक व्यवसाय के मालिक हैं और किसी भी तरह के प्रतिष्ठा और कानूनी नतीजों से बचना चाहते हैं। 

सुरक्षा और गोपनीयता

माइक्रोसॉफ्ट के AI उपकरण (बिंग AI सहित) अपने मॉडलों को प्रशिक्षित करने के लिए व्यक्तिगत और गोपनीय उपयोगकर्ता डेटा का उपयोग करेंइसका सेवा अनुबंध एआई-जनरेटेड सामग्री को कवर नहीं करता है; इसके बजाय, यह सभी एआई सामग्री की जिम्मेदारी उपयोगकर्ता पर डालने की कोशिश करता है। माइक्रोसॉफ्ट भी कोई जिम्मेदारी नहीं लेता अपने ग्राहकों की गोपनीयता और सुरक्षा प्रथाओं के लिए। संक्षेप में, यदि बिंग एआई का उपयोग करते समय आपका डेटा लीक हो जाता है, तो यह आपकी समस्या है, माइक्रोसॉफ्ट की नहीं।  

प्रयोग

माइक्रोसॉफ्ट उपयोगकर्ता सामग्री के स्वामित्व का दावा नहीं करता है, लेकिन यह विशेष रूप से AI-जनरेटेड सामग्री को विनियमित नहीं करता है, जहां स्वामित्व अनिश्चित है। सेवा अनुबंध लोगों को कुछ महत्वपूर्ण शर्तों के साथ वाणिज्यिक उद्देश्यों के लिए सामग्री का उपयोग करने की अनुमति देता है: आपको यह स्वीकार करना होगा कि AI-जनरेटेड सामग्री में मानवीय रचनात्मकता का अभाव है, इसलिए इसे बौद्धिक संपदा के रूप में दावा नहीं किया जा सकता है; आपको दूसरों के बौद्धिक संपदा अधिकारों का उल्लंघन भी नहीं करना चाहिए। संक्षेप में, आप दूसरों की बौद्धिक संपदा का उपयोग नहीं कर सकते हैं, लेकिन आप Bing के साथ जो कुछ भी बनाते हैं वह संभवतः आपकी अपनी बौद्धिक संपदा नहीं है।

क्विलबॉट ने मॉडलों को प्रशिक्षित करने के लिए उपयोग किए जाने वाले स्रोतों को प्रकट करने की कोई बाध्यता नहीं. हालांकि, कंपनी दिलचस्प रूप से एक अनूठी स्थिति को विनियमित करने की कोशिश करती है: क्या होगा यदि मॉडल प्रशिक्षण का स्रोत AI का आउटपुट है? क्विलबॉट अनिवार्य रूप से कॉपीराइट आउटपुट की संभावना को कम करने का प्रयास करता है, लेकिन कहता है कि यदि उपयोगकर्ता कॉपीराइट सामग्री इनपुट करते हैं तो आउटपुट के कॉपीराइट होने की संभावना अभी भी बनी हुई है। चीजों को और अधिक भ्रमित करने के लिए, क्विलबॉट यह कहकर सभी क्षेत्रों को कवर करने की कोशिश करता है कि उपयोगकर्ता क्विलबॉट को असीमित, उप-लाइसेंस योग्य लाइसेंस देते हैं जबकि यह भी दावा करते हैं कि उपयोगकर्ता उनके सभी आउटपुट के मालिक हैं। 

सटीकता और विश्वसनीयता

क्विलबॉट भालू सटीकता या विश्वसनीयता की कोई जिम्मेदारी नहींउपयोगकर्ताओं को बहुत सावधान रहना चाहिए और क्विलबॉट से सभी तथ्यों को सत्यापित करना चाहिए। 

सुरक्षा और गोपनीयता

क्विलबॉट ने उपयोगकर्ता की गोपनीयता की सुरक्षा के उपाय, लेकिन यह अभी भी व्यक्तिगत डेटा को संसाधित कर सकता है। बच्चों की गोपनीयता के लिए विशेष सुरक्षा हैं। हैक से डेटा हानि की जिम्मेदारी केस-दर-केस आधार पर संभाली जाती है। क्विलबॉट का कहना है कि उपयोगकर्ता को अपने व्यक्तिगत डेटा को हैक होने से बचाने के लिए कदम उठाने चाहिए, और क्विलबॉट के पास डेटा सुरक्षा तत्व मौजूद हैं। 

प्रयोग

क्विलबॉट उपयोगकर्ता वाणिज्यिक उद्देश्यों के लिए तैयार की गई सामग्री प्रकाशित कर सकते हैं, लेकिन आपको कुछ नियमों का पालन करना पड़ सकता है, जैसे हानिकारक या भ्रामक सामग्री प्रकाशित न करना। शर्तें यह मत कहिए कि आपको यह घोषित करने की ज़रूरत है कि इसकी सामग्री AI द्वारा जनित है। संक्षेप में, उपयोगकर्ता क्विलबॉट द्वारा उत्पन्न सामग्री प्रकाशित कर सकता है बशर्ते कि यह किसी कानून या अधिकार का उल्लंघन न करता हो। 

पिक्सलर एआई मॉडल प्रशिक्षण के लिए अपने स्रोतों का खुलासा नहीं करता है, क्योंकि ऐसा करने के लिए उनके पास कोई कानूनी बाध्यता नहीं है। इसकी शर्तों में कहा गया है कि उपयोगकर्ता सामग्री का मालिक है, लेकिन उपयोगकर्ता भी पिक्सलर को सामग्री का उपयोग करने का लाइसेंस प्रदान करेंयह कॉपीराइट सामग्री के उपयोग को न्यूनतम करने का एक प्रयास है। 

सटीकता और विश्वसनीयता

पिक्सलर किसी भी अशुद्धि के लिए जिम्मेदार नहीं है इसकी AI-जनरेटेड सामग्री में। उपयोगकर्ताओं को Pixlr से सभी चीज़ों की तथ्य-जांच करने में सावधानी बरतनी चाहिए। 

सुरक्षा और गोपनीयता

पिक्सलर एआई मॉडल प्रशिक्षण के लिए उपयोगकर्ता से इनपुट लेता है। यह इनपुट देने में सावधानी बरतने का भार उपयोगकर्ता पर डालता है व्यक्तिगत या गोपनीय जानकारीपिक्सलर अपने प्रशिक्षण डेटा से कुछ जानकारी को फ़िल्टर करने की अपनी ज़िम्मेदारी से छूट देता है, हालाँकि यह व्यक्तिगत या गोपनीय जानकारी को ब्लॉक करने के लिए कुछ फ़िल्टर का उपयोग करता है। पिक्सलर का दावा है उपयोगकर्ताओं के कार्यों के कारण होने वाली सुरक्षा समस्याओं के लिए कोई उत्तरदायित्व नहीं

प्रयोग

उपयोगकर्ता पिक्सलर के माध्यम से निर्मित एआई-जनरेटेड सामग्री को व्यावसायिक उद्देश्यों के लिए प्रकाशित कर सकते हैं (हालांकि कुछ शर्तें लागू होती हैं)। शर्तें आपको यह बताने की आवश्यकता नहीं है कि कुछ भी AI द्वारा जनरेट किया गया है। हालाँकि, अधिकारों या कानूनों का उल्लंघन करने के लिए उपयोगकर्ता अभी भी उत्तरदायी हैं। 

मध्य यात्रा उपयोगकर्ता कंपनी को इसके माध्यम से बनाई गई सभी परिसंपत्तियों पर अधिकार प्रदान करते हैं, लेकिन वो उपयोगकर्ता सभी परिसंपत्तियों का भी मालिक हैइसमें अपवाद भी हैं, जैसे कि अगर आप स्वामित्व का दावा नहीं कर सकते हैं तो अभी-अभी मूल निर्माता की एक छवि को अपस्केल किया है.

सटीकता और विश्वसनीयता

मिडजर्नी विश्वसनीयता और सटीकता के लिए कोई जिम्मेदारी नहीं लेता है इसलिए, उपयोगकर्ताओं को तथ्यों को सत्यापित करने और विश्वसनीयता की जांच करने के लिए अतिरिक्त सावधानी बरतनी चाहिए। 

सुरक्षा और गोपनीयता

मिडजर्नी अपने मॉडल को उपयोगकर्ता इनपुट के साथ प्रशिक्षित करता है, भले ही इसमें शामिल हो व्यक्तिगत या गोपनीय डेटामिडजर्नी का दावा है कि उपयोगकर्ता को संवेदनशील डेटा के साथ सावधान रहना चाहिए, इसलिए यह उनका मुद्दा नहीं है। कंपनी मॉडल प्रशिक्षण के लिए कुछ जानकारी को फ़िल्टर करने का प्रयास करती है, लेकिन यह आवश्यक नहीं है। मिडजर्नी उपयोगकर्ता की कार्रवाइयों से होने वाली सुरक्षा समस्याओं के लिए कोई ज़िम्मेदारी नहीं लेती है। 

प्रयोग

मिडजर्नी उपयोगकर्ता वाणिज्यिक उद्देश्यों के लिए उत्पन्न सामग्री प्रकाशित कर सकते हैं। कुछ शर्तें, जैसे प्रो संस्करण की सदस्यता लेने की आवश्यकता यदि कंपनी प्रति वर्ष 1 मिलियन डॉलर से अधिक कमाती है, लागू करें। लेखन के समय, उपयोगकर्ताओं को यह दावा करने की आवश्यकता नहीं है कि मिडजर्नी से कुछ भी AI द्वारा उत्पन्न किया गया है, भले ही इसे बदलने के लिए कानून गति में है। उपयोगकर्ता आम तौर पर किसी भी मॉडजर्नी सामग्री का उपयोग कर सकते हैं यदि यह किसी भी अधिकार या कानून का उल्लंघन नहीं करता है। 

क्लिपचैम्प एक माइक्रोसॉफ्ट उत्पाद है, इसलिए यह मॉडल प्रशिक्षण के लिए डेटा स्रोतों को साझा करने के लिए कोई दायित्व नहीं रखता है। इसलिए, यह बताना मुश्किल है कि क्या AI टूल अनजाने में कॉपीराइट किए गए डेटा का उपयोग करता है। किसी को दावा करने के लिए कॉपीराइट उल्लंघन की पहचान करनी चाहिए, जो कि असंभव है। Microsoft सेवा अनुबंध कहता है यह सेवाओं को बेहतर बनाने के लिए उपयोगकर्ता इनपुट और आउटपुट का उपयोग कर सकता है, और Microsoft बौद्धिक संपदा मामलों को विनियमित नहीं करता है। उपयोगकर्ता माइक्रोसॉफ्ट को विश्वव्यापी, रॉयल्टी-मुक्त बौद्धिक संपदा लाइसेंस प्रदान करते हैं

सटीकता और विश्वसनीयता

क्लिपचैम्प और माइक्रोसॉफ्ट अपने AI उपकरणों की सटीकता या समयबद्धता के संदर्भ में कुछ भी गारंटी नहीं देताइसलिए उपयोगकर्ताओं को प्रकाशन से पहले सभी तथ्यों की पुष्टि कर लेनी चाहिए। यह बात खास तौर पर उन व्यवसाय मालिकों के लिए सच है जिन्हें कानूनी और प्रतिष्ठा से जुड़े नतीजों का सामना करना पड़ सकता है। 

सुरक्षा और गोपनीयता

क्लिपचैम्प और माइक्रोसॉफ्ट मॉडल प्रशिक्षण के लिए व्यक्तिगत और गोपनीय डेटा का उपयोग करेंमाइक्रोसॉफ्ट सभी सामग्री संबंधी समस्याओं की जिम्मेदारी उपयोगकर्ता पर डालने का प्रयास करता है। यही बात हैकिंग और सुरक्षा उल्लंघनों पर भी लागू होती हैयदि कुछ भी घटित होता है तो इसकी जिम्मेदारी उपयोगकर्ता की होगी। 

प्रयोग

क्लिपचैम्प और माइक्रोसॉफ्ट ने एआई-जनरेटेड सामग्री को विनियमित करने से दूरी बना ली है। कभी भी यह दावा न करें कि सामग्री का स्वामित्व Microsoft के पास हैतकनीकी रूप से, माइक्रोसॉफ्ट का कहना है कि उपयोगकर्ता इसका मालिक है, लेकिन बौद्धिक संपदा अधिकारों के बिना। उपयोगकर्ता दो शर्तों के साथ वाणिज्यिक उद्देश्यों के लिए क्लिपचैम्प सामग्री प्रकाशित कर सकता है: आप बौद्धिक संपदा अधिकारों का उल्लंघन नहीं कर सकते हैं, या दावा नहीं कर सकते हैं कि आपके पास उत्पन्न सामग्री के लिए बौद्धिक संपदा अधिकार हैं। 

द लूका शर्तें कंपनी का कहना है कि डेटा प्रशिक्षण स्रोतों को साझा करने के लिए कंपनी के पास कोई दायित्व नहीं है, इसलिए वे ऐसा नहीं करते हैं। लुका द्वारा तैयार की गई सामग्री का उपयोग करते समय उपयोगकर्ता सभी जोखिम उठाते हैं। 

सटीकता और विश्वसनीयता

लूका अपने एआई उपकरणों से प्राप्त आउटपुट की सटीकता और विश्वसनीयता के लिए कोई जिम्मेदारी स्वीकार नहीं करता है। उपयोगकर्ताओं को सभी तथ्यों की पुष्टि करनी चाहिए और विश्वसनीयता की जांच करें। 

सुरक्षा और गोपनीयता

लूका अपने मॉडल को प्रशिक्षित करने के लिए इनपुट डेटा का उपयोग करता है - यहां तक ​​कि संभावित रूप से व्यक्तिगत और गोपनीय डेटा का भी। इसलिए उपयोगकर्ता अपने इनपुट में इस प्रकार के डेटा का उपयोग न करने के लिए जिम्मेदार है। लूका ऐसे डेटा को फ़िल्टर करने की कोशिश करता है, लेकिन उनका दावा है कि उन्हें ऐसा करने की ज़रूरत नहीं है। इसके अलावा, सभी सुरक्षा मुद्दे उपयोगकर्ता के बोझ हैं। 

प्रयोग

लुका उपयोगकर्ता व्यावसायिक उद्देश्यों के लिए एआई-जनरेटेड सामग्री का उपयोग कर सकते हैं, लेकिन उन्हें शर्तों या नियमों का पालन करना पड़ सकता है। एक शुल्क का भुगतानउपयोगकर्ताओं को अपनी जेनरेट की गई सामग्री को AI-जनरेटेड के रूप में लेबल करने की आवश्यकता नहीं है। उपयोगकर्ताओं को ऐसी जेनरेट की गई सामग्री प्रकाशित करने से बचना चाहिए जो अधिकारों या कानूनों का उल्लंघन करती हो। 

यह बताना संभव नहीं है कि स्पीचफाई अपने मॉडल को प्रशिक्षित करता है कॉपीराइट सामग्री पर। हम बस नहीं जानते। स्पीचिफ़ाई की शर्तें इनपुट के लिए कॉपीराइट सामग्री का उपयोग न करने की सलाह देती हैं, जो यह सुझाव देती है कि कुछ आउटपुट में कॉपीराइट डेटा हो सकता है। स्पीचिफ़ाई इसके लिए कोई जिम्मेदारी नहीं लेने का दावा

सटीकता और विश्वसनीयता

स्पीचफाई, इसके अनुसार शर्तें , अपने आउटपुट की सटीकता के लिए कोई जिम्मेदारी नहीं लेता है। उपयोगकर्ताओं को हमेशा स्पीचिफ़ाई के साथ समयबद्धता, विश्वसनीयता और सटीकता की जांच करनी चाहिए। 

सुरक्षा और गोपनीयता

व्याख्यान देना संवेदनशील या व्यक्तिगत डेटा इनपुट करने की बात आने पर सभी जिम्मेदारी उपयोगकर्ता पर डाल देता है. यह उपकरण मॉडल को प्रशिक्षित करने के लिए इनपुट का उपयोग करता है, इसलिए उपयोगकर्ताओं को सावधान रहना चाहिए। स्पीचिफ़ाई को संवेदनशील या व्यक्तिगत डेटा को फ़िल्टर करना ज़रूरी नहीं है, लेकिन यह कुछ फ़िल्टर के साथ ऐसा करने की कोशिश करता है। सुरक्षा मुद्दों के लिए सभी ज़िम्मेदारियाँ उपयोगकर्ता को दी जाती हैं। 

प्रयोग

स्पीचिफ़ाई उपयोगकर्ता उपयोग कर सकते हैं वाणिज्यिक उद्देश्यों के लिए आउटपुट, कुछ शर्तों के साथ जैसे सदस्यता लेना या लाइसेंस प्राप्त करना. उपयोगकर्ताओं यह घोषित करने की आवश्यकता नहीं है कि स्पीचफाई सामग्री AI द्वारा उत्पन्न हैहालाँकि, स्पीचफाई उपयोगकर्ताओं को स्पीचफाई आउटपुट प्रकाशित करते समय कभी भी अधिकारों या कानूनों का उल्लंघन नहीं करना चाहिए। 

द कपविंग नियम सभी बौद्धिक संपदा और सटीकता की ज़िम्मेदारियाँ उपयोगकर्ता पर डालते हैंसभी उपयोगकर्ता Kapwing को एक गैर-अनन्य लाइसेंस देते हैं, लेकिन उपयोगकर्ताओं के पास सामग्री का स्वामित्व बना रहता हैकपविंग इस बारे में कुछ भी नहीं बताता है कि वह मॉडल प्रशिक्षण के लिए इनपुट डेटा का उपयोग करता है या नहीं। 

सटीकता और विश्वसनीयता

Kapwing सटीकता की सारी ज़िम्मेदारियाँ उपयोगकर्ता पर डालता है, विशेष रूप से किसी भी कानूनी और प्रतिष्ठा संबंधी परिणाम।

सुरक्षा और गोपनीयता

कपविंग के उपयोगकर्ता अपने AI टूल में गोपनीय जानकारी डालने का चुनाव करते समय सभी जोखिम उठाते हैं। यह सेवा की सुरक्षा पर कोई वारंटी या जिम्मेदारी भी नहीं देता है।

प्रयोग

आप कपविंग की सामग्री को व्यावसायिक रूप से प्रकाशित कर सकते हैं, लेकिन कपविंग उपयोगकर्ताओं को सावधान रहने की सलाह देता है। उनकी शर्तों में यह नहीं बताया गया है कि उपयोगकर्ताओं को कपविंग से आउटपुट को AI-जनरेटेड घोषित करना चाहिए या नहीं।

Otter.ai का कहना है कि वह अपनी सेवाओं में कॉपीराइट का उल्लंघन करने वाली सामग्रियों की अनुमति नहीं देता है, लेकिन इस दावे को सत्यापित करना कठिन है। उपयोगकर्ताओं के पास इनपुट का स्वामित्व और कॉपीराइट सुरक्षित रहता है और Otter.ai में पोस्ट करता है, लेकिन Otter.ai कहता है उपयोगकर्ता जिम्मेदार हैं एसटी पहले से कॉपीराइट की गई सामग्री को इनपुट न करना. ओटर.ai मशीन लर्निंग के लिए इनपुट का भी उपयोग कर सकते हैं.

सटीकता और विश्वसनीयता

Otter.ai सटीकता और विश्वसनीयता के मामले में खुद को ज़िम्मेदारी से अलग रखता है, इसलिए उपयोगकर्ताओं को हमेशा सामग्री की पुष्टि करनी चाहिए। तथ्यात्मक रूप से भ्रामक या गलत जानकारी का उपयोग करने से उपयोगकर्ता के लिए कानूनी या प्रतिष्ठा संबंधी समस्याएँ पैदा हो सकती हैं। 

सुरक्षा और गोपनीयता

गोपनीय जानकारी उजागर होने का पूरा जोखिम Otter.ai पर उपयोगकर्ता का स्वामित्व है। 

प्रयोग

उपयोगकर्ता वाणिज्यिक उद्देश्य से प्रकाशित कर सकते हैं चूंकि उपयोगकर्ता ही सामग्री के स्वामी हैं Otter.ai से। हालाँकि, AI द्वारा निर्मित सामग्री के स्वामित्व के स्पष्ट नियम नहीं हैं। Otter.ai यह भी बताता है इसके लिखित नोट्स खोजे और साझा किए जा सकते हैं.

फोटोरूम मॉडल प्रशिक्षण के लिए उपयोगकर्ता इनपुट और आउटपुट ले सकता है, लेकिन इस बारे में सीमित जानकारी है कि सेवा ऐसा करती है या नहीं। फोटोरूम की शर्तें उपयोगकर्ताओं को कॉपीराइट वाली सामग्री डालने से बचने की याद दिलाती हैं। सभी जिम्मेदारी उपयोगकर्ताओं की होगी इसके लिए। 

सटीकता और विश्वसनीयता

फोटो इसकी AI-जनरेटेड सामग्री की सटीकता या विश्वसनीयता के लिए कोई जिम्मेदारी नहीं हैउपयोगकर्ताओं को इसकी पुष्टि के लिए स्वयं जांच करनी चाहिए।

सुरक्षा और गोपनीयता

फोटोरूम अपने मॉडलों को प्रशिक्षित करने के लिए इनपुट का उपयोग करता है। गोपनीय जानकारी डालते समय उपयोगकर्ता जिम्मेदार होते हैं or व्यक्तिगत जानकारीसेवा इन प्रकार के इनपुट को फ़िल्टर करने का प्रयास करती है, लेकिन ऐसा करने की कोई आवश्यकता नहीं होने का दावा करती है। सुरक्षा मुद्दों के लिए सभी जिम्मेदारी उपयोगकर्ताओं की होती है। 

प्रयोग

फोटोरूम सामग्री वाणिज्यिक प्रयोजनों के लिए इस्तेमाल किया जा सकता है, लेकिन कुछ शर्तें लागू हो सकती हैं, जैसे कि सदस्यता के लिए साइन अप करना। शर्तों में कहा गया है कि आपको सामग्री को AI-जनरेटेड के रूप में चिह्नित करने की आवश्यकता नहीं है। यदि वे अधिकारों या कानूनों का उल्लंघन करते हैं तो उपयोगकर्ताओं को अन्य परिणाम देखने को मिल सकते हैं। 

अस्वीकरण

यह जानकारी केवल सामान्य जानकारी के उद्देश्य से है और इसे कानूनी सलाह के रूप में नहीं लिया जाना चाहिए। ईकॉमर्स प्लेटफ़ॉर्म त्रुटियों या चूक के लिए कोई ज़िम्मेदारी नहीं लेता है। अपनी विशिष्ट ज़रूरतों और परिस्थितियों के अनुरूप सलाह और मार्गदर्शन के लिए किसी उपयुक्त कानूनी पेशेवर से सलाह लें।

निष्कर्ष

एआई की सर्वव्यापकता के कारण हम सभी के लिए इस तकनीक पर आधारित उपकरणों और ऐप्स का उपयोग करना अधिक संभव हो गया है - फिर भी हममें से कई लोगों के पास उनके नियमों और शर्तों को पढ़ने के लिए आवश्यक समय नहीं है। 

2017 में, व्यावसायिक सेवा नेटवर्क डेलॉइट पाया गया कि उपभोक्ताओं के 91% “कानूनी नियम व शर्तों को बिना पढ़े स्वेच्छा से स्वीकार करना” - 97 से 18 वर्ष की आयु के बीच यह दर बढ़कर 34% हो गई है।

यह देखते हुए कि हमने कितने AI T&C को कम पठनीयता स्कोर के साथ रेट किया है, ऐसा लगता है कि इन दस्तावेजों की कानूनी भाषा इतनी अस्पष्ट है कि उपयोगकर्ता इन्हें समझने का प्रयास भी नहीं करते। 

हमने दस्तावेजों को पार्स करने के लिए एक कानूनी पेशेवर की मदद ली, लेकिन यह संदिग्ध है कि क्या यह आवश्यक है।

हम आशा करते हैं कि यह शोध - जिसमें इसकी पठनीयता रेटिंग, तथा ध्यान रखने योग्य नियमों व शर्तों पर जोसिल्डा एनड्रेज की विशेषज्ञता शामिल है - आपको यह तय करने में मदद करेगी कि आपको किस एआई ऐप और टूल का उपयोग करना चाहिए। 

कार्यप्रणाली और स्रोत

हमने शोध कैसे किया

लगभग 90 AI टूल और ऐप की सीड लिस्ट से शुरुआत करते हुए, हमने सबसे पहले हर टूल के कानूनी दस्तावेज़ों को इकट्ठा किया, जिसमें नियम और शर्तें से लेकर गोपनीयता नीतियाँ शामिल हैं। फिर हमने इन दस्तावेज़ों की शब्द लंबाई रिकॉर्ड की, और फ़्लेश-किनकैड की ग्रेडिंग प्रणाली का उपयोग करके उनके पठनीयता स्कोर की गणना की। इसके बाद, हमने एक कानूनी विशेषज्ञ, जोसिल्डा एनड्रेज (LLM) की मदद ली, जिन्होंने इन कानूनी दस्तावेज़ों के चयन की समीक्षा की और उन प्रमुख बिंदुओं की पहचान की, जिनके बारे में उपयोगकर्ताओं को पता होना चाहिए।

लगभग 30 AI टूल के लिए जिनके मोबाइल ऐप वर्शन उपलब्ध हैं, हमने Apple App Store पर प्रत्येक को खोजा और उनकी लिस्टिंग पर दिखाए गए उनके प्राइवेसी लेबल को रिकॉर्ड किया। इन्हें डेटा की 14 श्रेणियों में विभाजित किया गया है जिन्हें उपयोगकर्ताओं से एकत्र किया जा सकता है, और किस उद्देश्य के लिए। यह गणना करने के लिए कि कौन से AI ऐप सबसे अधिक डेटा एकत्र करते हैं, हमने मापा कि इन ऐप्स ने 14 संभावित श्रेणियों में से कितनी में अपने उपयोगकर्ताओं को ट्रैक किया। 

यह ध्यान रखना महत्वपूर्ण है कि इन 14 श्रेणियों को आगे व्यक्तिगत डेटा बिंदुओं में विभाजित किया गया है। उदाहरण के लिए, 'संपर्क जानकारी' में पाँच डेटा बिंदु शामिल हैं, जो हैं; 'नाम', 'ईमेल पता', 'फ़ोन नंबर', 'भौतिक पता' और 'अन्य उपयोगकर्ता संपर्क जानकारी'। यह पता लगाने के लिए कि कौन से ऐप सबसे ज़्यादा व्यक्तिगत डेटा बिंदु एकत्र करते हैं, प्रत्येक तालिका में अंतिम कॉलम पर नज़र डालें।

कुछ ऐप रैंकिंग में ऊपर दिखने वाले ऐप की तुलना में ज़्यादा व्यक्तिगत डेटा पॉइंट इकट्ठा करेंगे। ऐसा इसलिए है क्योंकि हमारी रैंकिंग पद्धति इस बात पर विचार करती है कि कौन से ऐप कुल मिलाकर सबसे ज़्यादा श्रेणियों में डेटा इकट्ठा करते हैं, जिससे उपयोगकर्ता डेटा की एक व्यापक और इसलिए ज़्यादा 'पूर्ण' तस्वीर सामने आती है, न कि प्रत्येक श्रेणी में उनके द्वारा एकत्र की गई जानकारी की गहराई। 

सूत्रों का कहना है

सुधार अनुरोध

हम समय-समय पर इस शोध को अद्यतन करते हैं।

यदि आप इस शोध में शामिल किसी भी AI टूल के स्वामी हैं और आप इस पृष्ठ पर दी गई जानकारी को चुनौती देना चाहते हैं, तो हम आपके द्वारा दिए गए साक्ष्य की समीक्षा के अधीन इसे अपडेट करने के लिए तैयार हैं। इस संबंध में हमसे संपर्क करते समय, हम आपसे अनुरोध करते हैं: 

  • आपकी वैधता की पुष्टि करने वाले व्यावसायिक दस्तावेज़ (उदाहरण के लिए, निगमन प्रमाणपत्र या पंजीकरण दस्तावेज़) 
  • इस पृष्ठ पर दी गई जानकारी आपके अनुसार पुरानी हो चुकी है (कृपया स्पष्ट बताएं)
  • इसे कैसे और क्यों अद्यतन किया जाना चाहिए, तथा इसके समर्थन में दस्तावेज़ों के लिंक भी दिए जाने चाहिए (उदाहरण के लिए, सेवा की शर्तों में संशोधन)

कृपया हमसे सम्पर्क करें यहां [ईमेल संरक्षित] विषय पंक्ति के साथ: 'सुधार अनुरोध: एआई उपकरण अध्ययन', साथ ही उस एआई उपकरण का नाम जिसके बारे में आप हमसे संपर्क कर रहे हैं।

बोगदान रैंकी

बोगदान रान्सिया इसके सह-संस्थापक हैं Ecommerce-Platforms.com और ecomm.design के प्रमुख क्यूरेटर, जो सर्वश्रेष्ठ ईकॉमर्स वेबसाइटों का प्रदर्शन है। डिजिटल कॉमर्स स्पेस में 12 से अधिक वर्षों के साथ उनके पास ज्ञान का खजाना है और बेहतरीन ऑनलाइन रिटेल अनुभवों के लिए उनकी गहरी नज़र है। एक ईकॉमर्स टेक एक्सप्लोरर के रूप में बोगदान विभिन्न प्लेटफ़ॉर्म और डिज़ाइन टूल का परीक्षण और समीक्षा करते हैं जैसे Shopify, फिग्मा और कैनवा पर शोध करता है और स्टोर मालिकों और डिजाइनरों के लिए व्यावहारिक सलाह प्रदान करता है।