لقد أصبح الذكاء الاصطناعي سريعًا جزءًا من روح العصر المعاصر - إلا أن الاعتبارات الأخلاقية حول هذا الموضوع لا تزال دون حل. كم عدد المستخدمين الذين يدركون تمامًا ما يقومون بالتسجيل فيه؟
هنا، من خلال التركيز على الشروط والأحكام وسياسات الخصوصية وراء أدوات وتطبيقات الذكاء الاصطناعي الأكثر شيوعًا، توضح لك منصات التجارة الإلكترونية ما تحتاج إلى معرفته عند استخدام هذه الأدوات لتلبية احتياجات عملك اليومية.
لقد قمنا بتحليل البيانات والمعلومات الشخصية التي تجمعها هذه الأدوات (والغرض منها) لمساعدتك في تحديد أدوات منظمة العفو الدوليةوالبرامج والمنصات هي الأكثر ملاءمة لاستخدامك المقصود. لقد استشرنا أيضًا خبيرًا قانونيًا لتفكيك المصطلحات وراء شروط وأحكام هذه الأدوات.
عندما تستخدم تطبيق الذكاء الاصطناعي، فإنك توافق على جمع (بعض) بياناتك على الأقل من خلاله
لقد قمنا بتحليل ملصقات الخصوصية الخاصة بمتجر تطبيقات Apple لنحو 30 إصدارًا متاحًا لتطبيقات الأجهزة المحمولة لأدوات الذكاء الاصطناعي الشهيرة لفهم أي منها يجمع بياناتك، ولماذا.
يتم تقسيم البيانات التي يتم جمعها من المستخدمين (والغرض منها) إلى 14 فئة، مما يجعل من الممكن تحديد التطبيقات التي تجمع وتتبع أكبر قدر من بيانات المستخدم.
لمزيد من التفاصيل، ألقي نظرة على قسم المنهجية في نهاية هذه الصفحة.
ما هي البيانات التي تجمعها تطبيقات الذكاء الاصطناعي؟
تقوم أدوات الذكاء الاصطناعي التي تم تقييمها في هذا البحث بجمع بيانات من أنواع مختلفة. تركز بعض هذه على التفاصيل الشخصية للمستخدمين - من أسماء المستخدمين وتفاصيلهم المصرفية، إلى صحتهم ولياقتهم البدنية، وحتى المعلومات الحساسة مثل العرق/الانتماء العرقي، والتوجه الجنسي، والهوية الجنسية، والآراء السياسية.
وتتعلق معلومات أخرى بالمحتوى الذي ينشئه المستخدمون (مثل رسائل البريد الإلكتروني والرسائل والصور ومقاطع الفيديو والتسجيلات الصوتية)، أو كيفية تفاعل المستخدمين مع المنتج نفسه، مثل سجلات البحث داخل التطبيق أو الإعلانات التي شاهدوها. والأمر الأكثر حيادية هو المعلومات التشخيصية التي يتم جمعها لإظهار بيانات الأعطال أو استهلاك الطاقة.
لماذا تقوم تطبيقات الذكاء الاصطناعي بجمع البيانات؟
هناك أسباب مختلفة لجمع التطبيقات للبيانات،بعضها قد يُنظر إليه على أنه أكثر مبررًا من غيره - على سبيل المثال، يمكن استخدام البيانات الحيوية أو معلومات الاتصال للتحقق من هوية المستخدم.
وعلى نحو مماثل، قد يكون الوصول إلى بيانات معينة ضروريًا لكي يعمل التطبيق بشكل صحيح، بما في ذلك منع الاحتيال أو تحسين قابلية التوسع والأداء.
وبشكل أكثر تحديدًا، تحتاج تطبيقات المراسلة إلى الوصول إلى جهات الاتصال وكاميرات الهاتف والميكروفونات للسماح بالمكالمات، في حين يعد تحديد الموقع الجغرافي ضروريًا لتطبيقات سيارات الأجرة أو التوصيل.
يمكن القول إن هناك أسبابًا أقل أهمية لجمع البيانات، بما في ذلك الإعلان أو التسويق من قبل مطور التطبيق (على سبيل المثال، لإرسال اتصالات تسويقية إلى المستخدمين)؛ وتمكين الإعلانات التابعة لجهات خارجية (عن طريق تتبع البيانات من تطبيقات أخرى لتوجيه الإعلانات المستهدفة إلى المستخدم، على سبيل المثال)؛ وتحليل سلوك المستخدم لأغراض تشمل تقييم فعالية الميزات الحالية أو التخطيط لميزات جديدة.
مرحبًا بمستخدمي الهاتف المحمول 👋 يمكن استخدام الجداول أدناه تم التمرير أفقيا لرؤية كافة البيانات، ولكن هذه الصفحة تبدو بالتأكيد أفضل على Desktop.
تطبيقات الذكاء الاصطناعي التي تجمع بياناتك لمشاركتها مع المعلنين من جهات خارجية
يمكن فرز رؤوس الأعمدة التي تحتوي على الأزرار.
تطبيق AI
% البيانات المشتركة مع الآخرين
تصفح التاريخ
معلومات الاتصال
معرفات
الموقع
بيانات أخرى
المشتريات
تاريخ البحث
بيانات الاستخدام
عدد نقاط البيانات التي تم جمعها
Canva
36%
2
2
1
1
2
8
Duolingo
36%
2
1
1
1
2
7
مساعد جوجل
21%
1
1
1
3
بنج
14%
1
1
2
بيكساي
14%
1
1
2
وومبو
14%
1
1
2
شات جي بي تي
7%
1
1
الجني منظمة العفو الدولية
7%
1
1
لينسا
7%
1
1
خطب
7%
1
1
النجوم
7%
1
1
من بين جميع تطبيقات الذكاء الاصطناعي المضمنة في بحثنا، Canva، أداة التصميم الجرافيكي، تجمع معظم البيانات من مستخدميها لأغراض إعلانية لجهات خارجية — حوالي 36%. وعلى النقيض من ذلك، تجمع التطبيقات الخمسة التي تجمع أقل قدر من البيانات لهذا الغرض ما يزيد قليلاً على 7%.
تتضمن البيانات التي يجمعها تطبيق Canva منك ويشاركها مع أطراف ثالثة سجل البحث الخاص بك، وموقعك، وعنوان بريدك الإلكتروني، وغيرها من المعلومات الموضحة في الجدول أعلاه.
يأتي بعد Canva تطبيق تعليم اللغة الممتع Duolingo (~36٪)، مساعد جوجل (~21٪)، و مايكروسوفت بنج (~14%) - كلها كما نقوم بمشاركة بياناتك مع أطراف ثالثة.
من بين التطبيقات الخمسة التي تجمع أقل قدر من البيانات، فقط com.starryai (مولد الصور) يقتصر على مشاركة بيانات الاستخدام فقط.
تطبيقات الذكاء الاصطناعي التي تجمع بياناتك لصالحها
يمكن فرز رؤوس الأعمدة التي تحتوي على الأزرار.
APP
% البيانات التي تم جمعها لصالح التطبيق نفسه
تصفح التاريخ
معلومات الاتصال
معرفات
الموقع
المشتريات
تاريخ البحث
بيانات الاستخدام
عدد نقاط البيانات التي تم جمعها
Canva
43%
2
2
1
1
1
2
9
Facetune
36%
2
4
2
2
4
14
اليكسا الأمازون
36%
4
2
1
1
2
10
مساعد جوجل
36%
1
2
2
1
2
8
فوتوروم
29%
1
1
1
1
4
Duolingo
21%
2
1
1
4
النجوم
14%
2
1
3
بنج
14%
1
1
2
لينسا
14%
1
1
2
قضاعة
7%
2
2
يوبر
7%
1
1
بو
7%
1
1
بيكساي
7%
1
1
خطب
7%
1
1
وومبو
7%
1
1
كما تتصدر Canva أيضًا قائمة تطبيقات الذكاء الاصطناعي التي تجمع بيانات المستخدم لأغراض الدعاية أو التسويق الخاصة بهاوللقيام بذلك، تقوم Canva بجمع حوالي 43% من بيانات مستخدميهم.
في المركز الثالث ، أمازون أليكسا تجمع 36% من بياناتك لنفس الغرض. ويشمل ذلك عنوان بريدك الإلكتروني وعنوانك الفعلي ورقم هاتفك وسجل البحث وسجل الشراء، بالإضافة إلى خمس نقاط بيانات أخرى. مساعد جوجل تجمع وتشارك نفس النسبة المئوية من البيانات لهذا السبب، على الرغم من وجود ثماني نقاط بيانات فردية، مقارنة بالعشر نقاط التي تجمعها Amazon Alexa.
إنّ يعد تطبيق Speechify، مولد الصوت من النص إلى الكلام، من بين التطبيقات التي تجمع أقل قدر من البيانات. وفقًا لملصقات الخصوصية الموجودة في قائمة Apple App Store، تجمع Speechify نقطة بيانات واحدة فقط لمصلحتك الخاصة؛ معرف جهازك.
تطبيقات الذكاء الاصطناعي التي تجمع بياناتك لأي غرض
يمكن فرز رؤوس الأعمدة التي تحتوي على الأزرار.
APP
% البيانات التي تم جمعها
تصفح التاريخ
معلومات الاتصال
معلومات الاتصال
التشخيص
المعلومات المالية
الصحة واللياقة
معرفات
الموقع
بيانات أخرى
المشتريات
تاريخ البحث
معلومات حساسة
بيانات الاستخدام
محتوى المستخدم
عدد نقاط البيانات التي تم جمعها
اليكسا الأمازون
93%
24
4
9
3
4
10
8
4
5
5
4
13
23
116
مساعد جوجل
86%
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79%
10
1
7
1
12
4
4
6
1
7
7
60
Canva
64%
11
3
1
8
5
4
5
10
6
53
قضاعة
57%
7
3
5
7
2
3
2
11
40
بو
57%
2
2
3
6
2
3
2
5
25
Facetune
50%
6
8
18
8
8
14
2
64
بنج
50%
1
2
6
3
3
2
3
20
ديب سيك
50%
2
3
4
1
1
2
3
16
م
43%
6
4
6
6
6
4
32
إلسا تحدث
43%
2
6
6
3
3
3
23
فوتوروم
43%
2
1
9
3
4
1
20
Trint
43%
1
2
1
4
1
2
11
شات جي بي تي
36%
4
8
5
7
2
26
الحيرة منظمة العفو الدولية
36%
6
6
2
1
6
21
1 / 2
تتطلب جميع نماذج الذكاء الاصطناعي بعض أشكال التدريب من خلال التعلم الآلي - مما يعني أن إنهم بحاجة إلى البيانات.
إذا أردنا أن تتحسن أدوات الذكاء الاصطناعي وتصبح أكثر فائدةيمكن اعتبار خصوصيتنا بمثابة مقايضة ضرورية مقابل تقديم هذه البيانات.
ومع ذلك، فإن السؤال هو أين الخط الفاصل بين المنفعة والاستغلال ينبغي رسمها، ولماذا، فهي مسألة شائكة.
نظرًا لشهرتها الحالية، فمن الجدير أن نتناول DeepSeekيشير إدراجها على متجر تطبيقات Apple إلى أن DeepSeek لا تجمع بيانات المستخدم لصالحها الخاص (على سبيل المثال، التسويق والإعلان الخاص بـ DeepSeek) أو لمشاركتها مع أطراف ثالثة.
إنّ يقوم تطبيق DeepSeek نفسه بجمع 50% من بيانات مستخدميه، والتي تخدم تحليلات DeepSeek ووظائف التطبيق. للمقارنة، تطبيق ChatGPT يجمع 36%.
وتشير بعض وسائل الإعلام إلى مخاوف بشأن المخاطر الأمنية المتعلقة بالأصول الصينية لشركة DeepSeek (سواء من حيث جمع البيانات أو الانتشار المحتمل للمعلومات المضللة) وتقويض المنافسين الأميركيين. ومن غير المرجح أن يتم تخفيف كل من هذه المخاوف من خلال شروط وأحكام وسياسة الخصوصية الخاصة بشركة DeepSeek، والتي من شأنها أن تستغرق حوالي 35 دقائق للقراءة، ويتم تصنيفها على أنها "صعب جدا" على مقياس فليش-كينكايد للقراءة.
بغض النظر عن كيفية استخدام بياناتك، تجمع Amazon Alexa بيانات مستخدميها أكثر من أي تطبيق ذكاء اصطناعي آخر تم تضمينها في هذا البحث. بشكل عام، يتم جمع 93% من بياناتك (أو 116 مقياسًا فرديًا، بشكل أساسي معلومات الاتصال، ومحتوى المستخدم، وبيانات الاستخدام).
مساعد جوجل يأتي بعد ذلك، جمع 86%، تليها Duolingo، الذي يجمع 79%.
وفي الطرف الآخر من المقياس، مولد الصور بالذكاء الاصطناعي، Stable Diffusion، لا يجمع أي بياناتوهذا وفقًا لملصقات الخصوصية الموجودة على قائمة Apple App Store.
في حين أنه من الصحيح أن كل شيء الذكاء الاصطناعي التوليدي تتطلب النماذج كميات هائلة من البيانات لتدريبها، ويحدث هذا التدريب قبل تطوير تطبيقات معينة. في معظم الحالات، لا يمتلك منشئو التطبيقات نماذج الذكاء الاصطناعي التي يستخدمونها؛ وبالتالي فإن جمع بيانات المستخدم يرتبط بوظائف التطبيق نفسه. قد يفسر هذا سبب عدم احتواء بعض التطبيقات التي قمنا بالتحقيق فيها على أي معلومات في الجدول أعلاه.
التنقل بين الشروط والأحكام الخاصة بأدوات الذكاء الاصطناعي
الآن دعونا ننظر إلى الوثائق القانونية خلف أدوات الذكاء الاصطناعي المختلفة لمعرفة ما مدى سهولة أو صعوبة قراءتهايعتمد هذا على اختبار مستوى القراءة Flesch-Kincaid.
يعادل هذا النظام النصوص بمستويات القراءة في المدارس الأمريكية (من الصف الخامس إلى الصف الثاني عشر)، ثم مستوى الكلية، ومستوى الدراسات العليا، والمستوى المهني. وتُعرَّف النصوص في مستوى الصف السادس بأنها "لغة إنجليزية محادثة للمستهلكين"، في حين توصف النصوص المصنفة على أنها "صعبة القراءة للغاية".
كلما كانت درجة قابلية القراءة منخفضة، كلما كان من الصعب قراءة النص.
ومن المثير للاهتمام أن "الحصول على قسط كاف من النوم" - وهو أمر ضروري للصحة البدنية والعقلية والوظائف الإدراكية - يأتي في المرتبة الثالثة، بعد "العمل لساعات طويلة" و"فرز الإقرارات الضريبية".
شعر ثلث المشاركين في الاستطلاع أنه من غير الممكن القيام بكل أعمالهم الإدارية أثناء ساعات العمل، وقالوا كنت بحاجة إلى أربع ساعات إضافية يوميًا للانتهاء من كل ذلك.
وهذا يعطي إحساسًا بمدى صعوبة إدارة شركة صغيرة ومتوسطة الحجم، وأن الوقت اللازم لقراءة الشروط والأحكام وراء الأدوات التي يعتمدون عليها هي ليس من السهل الحصول عليه.
في هذا السياق، فإن مدة قراءة الشروط والأحكام البالغة 40 دقيقة لأدوات النسخ مثل Otter وTrint وDescript لها أهمية كبيرة.
و وهذا على افتراض أنه من الممكن أن نفهم الشروط والأحكام الأكثر صعوبة في القراءة. ولهذا السبب سعينا للحصول على خبرة خبير قانوني.
لقد طلبنا من خبير قانوني في مجال الذكاء الاصطناعي والتكنولوجيا أن يقرأها ويشرح النقاط الرئيسية التي تحتاج إلى معرفتها
جوسيلدا ندراج، وهو محترف قانوني ومحامي مرخص، تعامل مع مسائل قانونية معقدة نيابة عن عملاء Fortune 500 وقدم المشورة لمختلف الشركات.
وفي الآونة الأخيرة، بصفتها مستشارة مستقلة، عملت التركيز على قانون الملكية الفكرية عند تقاطع تقنية blockchain والذكاء الاصطناعي.
جوسيلدا ندراج (LLM) هي محترفة قانونية ومحامية مرخصة تتمتع بخبرة في قانون الملكية الفكرية (IP).
بدأت حياتها المهنية كمستشارة قانونية في شركة محاماة دولية مرموقة، تقدم خدماتها لعملاء من شركات فورتشن 500. وهنا، تعاملت جوسيلدا مع مسائل قانونية معقدة وقدمت المشورة لشركات مختلفة.
مدفوعة باهتماماتها في الابتكار والإبداع والتقنيات الناشئة، دخلت جوسيلدا بعد ذلك في مجال الاستشارات المستقلة وركزت على قانون الملكية الفكرية، من خلال تغطية التقاطع مع تقنية blockchain والذكاء الاصطناعي.
حصلت جوسيلدا على درجتي ماجستير في القانون؛ واحدة متخصصة في القانون المدني والتجاري من جامعة تيرانا، والأخرى تركز على قانون الملكية الفكرية، من جامعة تشونجنان للاقتصاد والقانون.
وعلى هذا النحو، كانت جوسيلدا يتمتع بموقع فريد يسمح له بمراجعة مجموعة مختارة من المستندات القانونية لأدوات الذكاء الاصطناعي هذه، استخلاص النقاط الرئيسية لصالح أولئك منا الذين لا يحملون درجتي ماجستير في القانون.
ملخصاتها موضحة أدناه:
السرقة الأدبية وانتهاك حقوق النشر
لا يلتزم برنامج Gemini (المعروف سابقًا باسم Bard) بالإعلان عن مصادر التدريب، لذا لا يمكننا التحقق مما إذا كان قد تم تدريبه على مواد محمية بحقوق الطبع والنشر. لا يتم استبعاد برنامج Gemini من المسؤوليات المترتبة على مثل هذا الانتهاك؛ إذا رفع مالك حقوق الطبع والنشر دعوى قضائية، يتحمل برنامج Gemini بعض المسؤولية. ولكن من المهم ملاحظة أن برنامج Gemini يتم تدريبه على ما يقدمه له المستخدم. ولهذا، يتطلب Gemini ترخيصًا من المستخدمإذا وافق المستخدم على منح هذا الترخيص لشركة Gemini، لكنه (المستخدم) لا يمتلك حقوق الطبع والنشر فعليًا، تنتقل المسؤولية إلى المستخدم.
يحتفظ المستخدمون بملكية مدخلاتهم ومطالباتهمولكن ملكية المخرجات أكثر تعقيدًا. ولا توضح شركة جيميني هذا الأمر في شروطها. ولا تعترف العديد من التشريعات بحقوق الملكية الفكرية للآلات. ومع ذلك، فمن المشكوك فيه أن نزعم أن المخرجات "من صنع الإنسان"، حتى لو كان المستخدم يمتلك المدخلات.
لا ينبغي لأصحاب الأعمال أن ينشروا أيًا من مخرجات Gemini دون الرجوع إلى المراجع والمراجعة للتأكد من التحديثات والتحقق من الدقة من قبل الخبراء. وإلا فإنهم يخاطرون بنشر معلومات مضللة، وهو ما قد يؤدي إلى عواقب قانونية أو سمعة سيئة.
الأمن والسرية
لا تقدم شركة Google (مالكة Gemini) أي معلومات في سياسة الخصوصية الخاصة بها حول كيفية تعاملها مع البيانات السرية.
الأستعمال
لا تنص Google في شروط الخدمة الخاصة بها على ما إذا كان المحتوى الذي تم إنشاؤه بواسطة Gemini يمكن استخدامه لأغراض تجارية. تشرح القيود المفروضة على أشياء مثل حقوق الملكية الفكرية ولكن لا يوجد شيء خاص بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
السرقة الأدبية وانتهاك حقوق النشر
حاليًا، لا يلزم أي تشريع ChatGPT بالإعلان علنًا عن المحتوى الذي تم تدريب نموذجه عليه. لذا، نظرًا لأنه لا يكشف عن مصادره، فلا يمكننا معرفة ما إذا كان ChatGPT يسلم أو يعالج محتوى محميًا بقوانين حقوق النشر. إذا حدد شخص ما محتوى محميًا بحقوق النشر من ChatGPT، يمكنهم تقديم مطالبة لإزالة هذا المحتوى.
يجب على المستخدمين التحقق من جميع المعلومات الواردة من ChatGPT. وذلك لأن لا يتحمل ChatGPT أي مسؤولية عن توفير معلومات دقيقة, محتوى محدث. وفقًا لقسم إخلاء المسؤولية عن الضمان، يتحمل المستخدم كافة مخاطر الدقةالجودة والموثوقية والأمان والاكتمال. لذلك، تحقق دائمًا من الحقائق من ChatGPT؛ وراجعها بحثًا عن التحديثات واستشر الخبراء للتأكد من دقتها أيضًا. قد يواجه أصحاب الأعمال عواقب قانونية أو تتعلق بسمعتهم إذا لم يتحققوا من دقة محتوى ChatGPT قبل النشر.
الأمن والسرية
يقوم ChatGPT بجمع المعلومات من المدخلات — بما في ذلك المعلومات الشخصية — لتدريب نماذجها المحتملة (وفقًا لسياسة الخصوصية)يمكن للمستخدم إلغاء الاشتراك. يتغير الموقف إذا تم إرسال البيانات عبر اتصالات API (ChatGPT Enterprise، Team، وما إلى ذلك)؛ وذلك لأن لا يستخدم ChatGPT مدخلات من عملاء الأعمال لتدريب النماذج. لدى ChatGPT تدابير أمنية مطبقة، لكنها لا تتناول صراحة المسؤولية عن خرق الأمان. كل هذا يعتمد على القوانين الإقليمية.
الأستعمال
يملك مستخدمو ChatGPT محتوى الإدخال والإخراج الخاص بهملذلك، يجب على المستخدمين التأكد من أن المحتوى لا ينتهك أي قوانين. لا يمكن للمستخدمين الادعاء بأن المحتوى تم إنشاؤه بواسطة الإنسانولكن ليس عليك أن تقول إنه تم إنشاؤه بواسطة الذكاء الاصطناعي أيضًا. طالما أن المستخدمين يلتزمون بالقوانين الإقليمية وشروط الاستخدام، يمكن استخدام محتوى ChatGPT للأغراض التجارية وعلى وسائل التواصل الاجتماعي وللإعلان المدفوع وغير ذلك من القنوات. يُنصح بالتحقق من الحقائق والإشارة إلى المصادر والالتزام بالقوانين قبل نشر المحتوى من ChatGPT.
السرقة الأدبية وانتهاك حقوق النشر
لا تحدد سياسة الخصوصية ولا الشروط ما إذا كانت أداة الذكاء الاصطناعي الخاصة بشركة DeepSeek قد تم تدريبها على مواد محمية بحقوق الطبع والنشر. علاوة على ذلك، لا تقدم أي ضمانات بأن النتائج لن تنتهك حقوق الطبع والنشر لأي شخص. تنص شروط استخدام DeepSeek على أنه يحتفظ المستخدمون بحقوقهم في مدخلاتهم (المطالبات)، ولكن هذا لا يعني بالضرورة أنها محمية بحقوق الطبع والنشر في المقام الأول، لذلك يجب على المستخدمين اتخاذ خطوات لضمان أن ما يستخدمونه كمطالبات ليس ملكية فكرية لشخص آخر.
وتنص الشروط أيضًا صراحةً على أن المستخدم مسؤول عن جميع المدخلات والمخرجات المقابلةلذا، مع وضع ذلك في الاعتبار، يجب على المستخدمين التحقق من هذه المعلومات بشكل مستقل من خلال طلب المشورة القانونية و/أو استخدام قواعد بيانات حقوق النشر. على سبيل المثال، كتالوج عام لمكتب حقوق النشر الأمريكي يسمح للمستخدمين بالبحث عن الأعمال المسجلة في الولايات المتحدة، بينما جوجل عكس البحث عن الصور يساعد في التحقق مما إذا كانت الصورة قد تم نشرها مسبقًا أو محمية بحقوق الطبع والنشر.
الدقة والموثوقية
تنص شروط استخدام DeepSeek على أن المخرجات يتم إنشاؤها بواسطة الذكاء الاصطناعي، وبالتالي قد تحتوي على أخطاء و/أو سهو. يشير بشكل خاص إلى القضايا الطبية والقانونية والمالية قد يسأل المستخدمون DeepSeek عن ذلك، وكيف أن مخرجات DeepSeek لا تشكل نصيحة. ولكن على نطاق أوسع، ويقول نفس الشيء عن "القضايا المهنية"، والتي يمكن أن تكون أي شيء تقريبًا - من التسويق والبحث إلى التكنولوجيا والتعليم وما بعد ذلك - وأن المخرجات لاتمثل آراء أي وقت المجال المهنيلذلك، ينبغي للمستخدمين التحقق بشكل مستقل من دقة جميع مخرجات DeepSeek.
الأمن والسرية
تشرح سياسة الخصوصية الخاصة بشركة DeepSeek أن مدخلات المستخدم تتم معالجتها لتوليد المخرجات، ولكن أيضًا تحسين خدمة DeepSeek. هذا يشمل "التدريب وتحسين التكنولوجيا الخاصة بهم". لذلك يجب على المستخدمين توخي الحذر عند إدخال معلومات حساسة، وعلى الرغم من أن DeepSeek لديه "معقول تجاريا"بالرغم من التدابير المعمول بها لحماية البيانات والمعلومات المستخدمة كمدخلات، إلا أنها لا تقدم أي ضمانات مطلقة. تنص شروط DeepSeek على أنها لا تنشر المدخلات أو المخرجات في المنتديات العامة، ولكن قد يتم مشاركة بعضها مع أطراف ثالثة.
الأستعمال
يمكن استخدام أي محتوى ينتجه المستخدمون من خلال DeepSeek لأغراض تجارية، ولكن نظرًا للمناطق الرمادية حول الانتحال والدقة، يجب على المستخدمين اتخاذ خطوات للتحقق من المحتوى قبل استخدامه بهذه الطريقة. لا تشير شروط خدمة DeepSeek إلى أي قيود فيما يتعلق بالمكان الذي يمكن للمستخدمين نشر هذا المحتوى فيه في العالم، لكنها تنص بوضوح على أنه يجب على المستخدمين إعلانها على أنها من صنع الذكاء الاصطناعي "لتنبيه الجمهور إلى الطبيعة الاصطناعية للمحتوى".
السرقة الأدبية وانتهاك حقوق النشر
لا يلتزم Canva قانونًا بالكشف عن مصادر بيانات التدريب. لذلك، لا نعرف ما إذا كان يتم استخدام مواد محمية بحقوق الطبع والنشر. المستخدم يمتلك كل محتوى الإدخال والإخراج (ليس Canva)، ولكن قد تستخدم Canva هذا المحتوى لتحسين خدماتها.
على غرار ChatGPT، لا يعلن DALL-E عن مصادر تدريب النموذج الخاص به. ومع ذلك، إذا وجدت محتوى محميًا بحقوق الطبع والنشر، فيمكنك يمكن تقديم طلب الإزالةمن الصعب التحقق مما إذا كان DALL-E ينتهك حقوق الطبع والنشر نظرًا لعدم وجود تشريع يلزم DALL-E بالكشف عن مصادر بياناتها. وفقًا للشروط، يتم إدخال بيانات المستخدم يمكن استخدامها لتدريب نموذج DALL-E — حتى لو كان المحتوى محميًا بحقوق الطبع والنشر. يجوز للمستخدم إلغاء الاشتراك في هذا.
لا تتناول سياسة الخصوصية والشروط والأحكام الخاصة بشركة DALL-E المسؤولية صراحةً في حالة حدوث خرق أمني. ومع ذلك، تطبق شركة DALL-E تدابير أمنية. ويعتمد تحديد من يتحمل المسؤولية في حالة حدوث اختراق على القوانين الإقليمية.
يمكنك استخدام DALL-E لأغراض تجارية، طالما أنك تلتزم بجميع القوانين وشروط DALL-E. قد تتغير اللوائح، ولكن في وقت كتابة هذا المقال، يُسمح للمستخدمين بنشر محتوى DALL-E على وسائل التواصل الاجتماعي وفي الإعلانات وعلى القنوات الأخرى. يجب على المستخدمين دائمًا الرجوع إلى المراجع المناسبة والتحقق من دقة المعلومات لتجنب انتهاك أي قوانين.
السرقة الأدبية وانتهاك حقوق النشر
لا يلتزم Bing بمشاركة مصادر تدريب البيانات الخاصة به، مما يجعل من الصعب للغاية معرفة ما إذا كان Bing AI يستخدم عن غير قصد محتوى محميًا بحقوق الطبع والنشر. وعلى الرغم من صعوبة تحديد ذلك، يمكن للمستخدمين تقديم مطالبات بشأن المحتوى المحمي بحقوق الطبع والنشر. تنص اتفاقية خدمات Microsoft على أن Bing AI يأخذ مدخلات ومخرجات المستخدم لتحسين نموذجه، ولكن لا يوجد شيء رسمي في مكانه لمنع سرقة الملكية الفكرية.
لا تقدم Microsoft أي ضمانات بشأن دقة المحتوى أو توقيته من خدمات الذكاء الاصطناعي التي تقدمها. لذلك، يجب عليك التحقق من صحة كل شيء من أدوات الذكاء الاصطناعي التي تقدمها Microsoft، خاصة إذا كنت مالكًا للأعمال التجارية وتريد تجنب أي عواقب تتعلق بالسمعة أو القانونية.
الأمن والسرية
أدوات الذكاء الاصطناعي من Microsoft (بما في ذلك Bing AI) استخدام بيانات المستخدم الشخصية والسرية لتدريب نماذجهالا تغطي اتفاقية الخدمة الخاصة بها المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي؛ وبدلاً من ذلك، تحاول تحويل مسؤولية محتوى الذكاء الاصطناعي بالكامل إلى المستخدم. كما لا تتحمل شركة Microsoft أي مسؤولية لممارسات الخصوصية والأمان التي يتبعها عملاؤها. باختصار، إذا تعرضت بياناتك للاختراق أثناء استخدام Bing AI، فهذه مشكلتك، وليست مشكلة Microsoft.
الأستعمال
لا تدعي شركة Microsoft ملكية محتوى المستخدمولكن اتفاقية الخدمات لا تنظم بشكل خاص المحتوى الذي ينتجه الذكاء الاصطناعي، حيث تكون الملكية غير مؤكدة. وتسمح اتفاقية الخدمات للأشخاص باستخدام المحتوى لأغراض تجارية، مع بعض الشروط المهمة: يجب أن تقبل أن المحتوى الذي ينتجه الذكاء الاصطناعي يفتقر إلى الإبداع البشري، وبالتالي لا يمكن المطالبة به باعتباره ملكية فكرية؛ ويجب عليك أيضًا عدم انتهاك حقوق الملكية الفكرية للآخرين. باختصار، لا يمكنك استخدام الملكية الفكرية للآخرين، ولكن أي شيء تصنعه باستخدام Bing ربما لا يكون ملكيتك الفكرية الخاصة.
السرقة الأدبية وانتهاك حقوق النشر
كويلبوت لديه لا يوجد التزام بالكشف عن المصادر التي تستخدمها لتدريب النماذجومع ذلك، تحاول الشركة بشكل مثير للاهتمام تنظيم موقف فريد واحد: ماذا لو كان مصدر تدريب النموذج هو مخرجات الذكاء الاصطناعي؟ تحاول Quillbot بشكل أساسي تقليل احتمالية وجود مخرجات محمية بحقوق الطبع والنشر، لكنها تنص على أنه لا يزال هناك احتمال أن يكون المخرج محميًا بحقوق الطبع والنشر إذا أدخل المستخدمون محتوى محميًا بحقوق الطبع والنشر. ولجعل الأمور أكثر إرباكًا، تحاول Quillbot تغطية جميع المجالات بالقول إن المستخدمين يمنحون Quillbot ترخيصًا غير محدود وقابل للترخيص من الباطن بينما تدعي أيضًا أن المستخدمين يمتلكون جميع مخرجاتهم.
كويلبوت لديه الإجراءات اللازمة لحماية خصوصية المستخدمولكن قد ينتهي الأمر بمعالجة البيانات الشخصية. هناك حماية خاصة لخصوصية الأطفال. تتم معالجة مسؤولية فقدان البيانات بسبب الاختراق على أساس كل حالة على حدة. تنص Quillbot على أنه يجب على المستخدم اتخاذ خطوات لمنع اختراق بياناته الشخصية، وأن Quillbot لديه عناصر حماية البيانات.
الأستعمال
يمكن لمستخدمي Quillbot نشر محتوى تم إنشاؤه لأغراض تجارية، ولكن قد تحتاج إلى اتباع بعض القواعد، مثل عدم نشر محتوى ضار أو مضلل. الشروط لا تقل إنك بحاجة إلى إعلان أن محتواه تم إنشاؤه بواسطة الذكاء الاصطناعي. باختصار، يمكن للمستخدم نشر المحتوى الذي تم إنشاؤه بواسطة Quillbot طالما أنه لا ينتهك أي قوانين أو حقوق.
السرقة الأدبية وانتهاك حقوق النشر
لا تكشف Pixlr عن مصادرها لتدريب نموذج الذكاء الاصطناعي، نظرًا لعدم وجود التزام قانوني عليها للقيام بذلك. تنص شروطها على أن المستخدم يمتلك المحتوى، ولكن المستخدمين أيضًا منح ترخيص لـ Pixlr لاستخدام المحتوىهذه محاولة لتقليل استخدام المحتوى المحمي بحقوق الطبع والنشر.
يأخذ Pixlr مدخلات المستخدم لتدريب نموذج الذكاء الاصطناعي. وينقل العبء إلى المستخدم ليكون حذرًا بشأن الإدخال معلومات شخصية أو سريةتتنازل Pixlr عن مسؤوليتها عن تصفية بعض المعلومات من بيانات التدريب الخاصة بها، على الرغم من أنها تستخدم بعض المرشحات لحظر المعلومات الشخصية أو السرية. تدعي Pixlr لا نتحمل أي مسؤولية عن المشكلات الأمنية الناجمة عن تصرفات المستخدمين.
الأستعمال
يمكن للمستخدمين نشر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي من خلال Pixlr لأغراض تجارية (على الرغم من تطبيق بعض الشروط). الشروط لا يُطلب منك أن تذكر أن أي شيء تم إنشاؤه بواسطة الذكاء الاصطناعي. ومع ذلك، لا يزال المستخدمون مسؤولين عن انتهاك الحقوق أو القوانين.
يقوم Midjourney بتدريب نموذجه باستخدام مدخلات المستخدم، حتى لو كان يتضمن البيانات الشخصية أو السريةتزعم Midjourney أن المستخدم يجب أن يكون حذرًا في التعامل مع البيانات الحساسة، لذا فهي ليست مشكلته. تحاول الشركة تصفية معلومات معينة لتدريب النموذج، لكن هذا ليس مطلوبًا. لا تدعي Midjourney أي مسؤولية عن مشكلات الأمان التي قد تحدث نتيجة لأفعال المستخدم.
الأستعمال
يمكن لمستخدمي Midjourney نشر محتوى تم إنشاؤه لأغراض تجارية. بعض الشروط، مثل شرط الاشتراك في الإصدار الاحترافي إذا كانت الشركة تحقق أكثر من مليون دولار سنويًافي وقت كتابة هذا المقال، لا يتعين على المستخدمين المطالبة بأي شيء تم إنشاؤه بواسطة الذكاء الاصطناعي من Midjourney، على الرغم من وجود تشريعات في طور التنفيذ لتغيير هذا. يمكن للمستخدمين عمومًا استخدام أي محتوى من Modjourney إذا لم ينتهك أي حقوق أو قوانين.
Clipchamp وMicrosoft يبتعدان عن تنظيم المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، لا تدعي أبدًا أن Microsoft تمتلك المحتوىمن الناحية الفنية، تقول شركة Microsoft إن المستخدم يمتلك المحتوى ولكن دون حقوق الملكية الفكرية. يمكن للمستخدم نشر محتوى Clipchamp لأغراض تجارية بشرطين: لا يمكنك انتهاك حقوق الملكية الفكرية، أو ادعاء امتلاكك لحقوق الملكية الفكرية للمحتوى الذي تم إنشاؤه.
السرقة الأدبية وانتهاك حقوق النشر
اللوكا الشروط صرحت الشركة بعدم وجود أي التزامات لديها بمشاركة مصادر تدريب البيانات، لذا فهي لا تفعل ذلك. يتحمل المستخدمون جميع المخاطر عند استخدام المحتوى الذي تم إنشاؤه بواسطة Looka.
الدقة والموثوقية
لا تتحمل شركة Looka أي مسؤولية عن دقة وموثوقية النتائج التي تنتجها أدوات الذكاء الاصطناعي الخاصة بها. يجب على المستخدمين التحقق من جميع الحقائق والتحقق من الموثوقية.
الأمن والسرية
تستخدم Looka بيانات الإدخال - حتى البيانات الشخصية والسرية المحتملة - لتدريب نموذجها، لذلك فإن المستخدم مسؤول عن عدم استخدام هذا النوع من البيانات في مدخلاته. تحاول شركة Looka تصفية مثل هذه البيانات، لكنها تزعم أنها ليست مضطرة إلى ذلك. بالإضافة إلى ذلك، فإن جميع مشكلات الأمان تقع على عاتق المستخدم.
الأستعمال
يجوز لمستخدمي Looka استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لأغراض تجارية، ولكن قد يتعين عليهم اتباع الشروط أو دفع رسوملا يتعين على المستخدمين تصنيف المحتوى الذي ينتجونه على أنه من إنتاج الذكاء الاصطناعي. يجب على المستخدمين تجنب نشر المحتوى الذي ينتهك الحقوق أو القوانين.
السرقة الأدبية وانتهاك حقوق النشر
ليس من الممكن معرفة ما إذا كان Speechify تدرب نموذجها بشأن المواد المحمية بحقوق الطبع والنشر. لا نعرف ببساطة. توصي شروط Speechify بعدم استخدام مواد محمية بحقوق الطبع والنشر في المدخلات، مما يشير إلى أن بعض المخرجات قد تحتوي على بيانات محمية بحقوق الطبع والنشر. يدعي عدم تحمل أي مسؤولية عن هذا.
الدقة والموثوقية
Speechify، وفقًا لـ الشروطلا تتحمل Speechify أي مسؤولية عن دقة مخرجاتها. يجب على المستخدمين دائمًا التحقق من التوقيت والموثوقية والدقة باستخدام Speechify.
الأمن والسرية
خطب ينقل كافة المسؤولية إلى المستخدم عندما يتعلق الأمر بإدخال بيانات حساسة أو شخصيةتستخدم الأداة مدخلات لتدريب النماذج، لذا يجب على المستخدمين توخي الحذر. لا يتعين على Speechify بالضرورة تصفية البيانات الحساسة أو الشخصية، ولكنها تحاول ذلك باستخدام بعض المرشحات. تنتقل جميع المسؤوليات المتعلقة بقضايا الأمان إلى المستخدم.
يتحمل مستخدمو Kapwing كافة المخاطر عند اختيار إدخال معلومات سرية في أداة الذكاء الاصطناعي الخاصة بها. كما لا تقدم Kapwing أي ضمان أو مسؤولية بشأن أمان الخدمة.
الأستعمال
يمكنك نشر محتوى Kapwing تجاريًا، لكن Kapwing تنصح المستخدمين بتوخي الحذر. لا تنص شروطهم على ما إذا كان يجب على المستخدمين إعلان أن الناتج من Kapwing تم إنشاؤه بواسطة الذكاء الاصطناعي أم لا.
تتنصل Otter.ai من المسؤولية فيما يتعلق بالدقة والموثوقية، لذا يجب على المستخدمين التحقق دائمًا من المحتوى. قد يؤدي استخدام معلومات مضللة أو غير صحيحة إلى حدوث مشكلات قانونية أو تتعلق بسمعة المستخدم.
يمكن لبرنامج PhotoRoom أن يأخذ مدخلات ومخرجات المستخدم لتدريب النموذج، ولكن هناك معلومات محدودة حول ما إذا كانت الخدمة تقوم بذلك أم لا. تذكّر شروط برنامج PhotoRoom المستخدمين بتجنب تقديم محتوى محمي بحقوق الطبع والنشر. يتحمل المستخدمون كافة المسؤولية لهذا.
يستخدم PhotoRoom المدخلات لتدريب نماذجه. المستخدمون مسؤولون عند إدخال معلومات سرية or المعلومات الشخصيةتحاول الخدمة تصفية هذه الأنواع من المدخلات ولكنها لا تدعي وجود أي متطلبات للقيام بذلك. ويتحمل المستخدمون كافة المسؤولية عن مشكلات الأمان.
الأستعمال
محتوى غرفة الصور يمكن استخدامها للأغراض التجاريةولكن قد تنطبق بعض الشروط، مثل التسجيل للحصول على اشتراك. تنص الشروط على أنه ليس عليك وضع علامة على المحتوى باعتباره من إنتاج الذكاء الاصطناعي. قد يواجه المستخدمون عواقب أخرى إذا انتهكوا الحقوق أو القوانين.
إخلاء مسؤولية
هذه المعلومات هي لأغراض إعلامية عامة فقط ولا ينبغي اعتبارها نصيحة قانونية. لا تتحمل منصات التجارة الإلكترونية أي مسؤولية عن الأخطاء أو الإغفالات. استشر متخصصًا قانونيًا مناسبًا للحصول على المشورة والتوجيه المخصص لاحتياجاتك وظروفك المحددة.
وفي الختام
إن انتشار الذكاء الاصطناعي يجعل من المرجح بشكل متزايد أن نستخدم جميعًا أدوات وتطبيقات تعتمد على هذه التكنولوجيا - ومع ذلك فإن الكثير منا لا يتمتعون بالوقت الكافي لقراءة شروطهم وأحكامهم.
بالنظر إلى عدد الشروط والأحكام الخاصة بالذكاء الاصطناعي التي قمنا بتقييمها بدرجات منخفضة من قابلية القراءة، يبدو أن إن عدم القدرة على فهم اللغة القانونية لهذه المستندات يجعل المستخدمين يحجمون حتى عن محاولة فهمها.
لقد عملنا مع متخصص قانوني لتحليل المستندات لنا، ولكن من المشكوك فيه ما إذا كان هذا ضروريًا.
نأمل أن يساعد هذا البحث - بما في ذلك تصنيفات قابلية القراءة، وخبرة جوسيلدا ندراج في الشروط والأحكام التي يجب مراعاتها - في توجيه اختياراتك بشأن تطبيقات وأدوات الذكاء الاصطناعي التي يجب التعامل معها.
المنهجية والمصادر
كيف أجرينا البحث
لقد بدأنا بقائمة أولية تضم حوالي 90 أداة وتطبيق ذكاء اصطناعي، وقمنا أولاً بجمع الوثائق القانونية لكل أداة، من الشروط والأحكام إلى سياسات الخصوصية. ثم سجلنا أطوال الكلمات في هذه الوثائق، وحسبنا درجة قابليتها للقراءة باستخدام نظام الدرجات الخاص بـ Flesch-Kincaid. بعد ذلك، استعنا بمساعدة خبيرة قانونية، Josilda Ndreaj (LLM)، التي راجعت مجموعة مختارة من هذه الوثائق القانونية وحددت النقاط الرئيسية التي يجب أن يكون المستخدمون على دراية بها.
بالنسبة لنحو 30 من أدوات الذكاء الاصطناعي التي تتوفر لها إصدارات تطبيقات جوال، بحثنا عن كل منها على متجر تطبيقات Apple وسجلنا علامات الخصوصية الموضحة في قوائمها. وتنقسم هذه العلامات إلى 14 فئة من البيانات التي يمكن جمعها من المستخدمين، ولأي غرض. لحساب تطبيقات الذكاء الاصطناعي التي جمعت أكبر قدر من البيانات، قمنا بقياس عدد الفئات الـ 14 المحتملة التي تتبعت هذه التطبيقات مستخدميها عبرها.
من المهم ملاحظة أن هذه الفئات الـ14 مقسمة إلى نقاط بيانات فردية. على سبيل المثال، تتضمن "معلومات الاتصال" خمس نقاط بيانات، وهي؛ "الاسم"، و"عنوان البريد الإلكتروني"، و"رقم الهاتف"، و"العنوان الفعلي"، و"معلومات الاتصال الأخرى للمستخدم". لمعرفة التطبيقات التي تجمع أكبر عدد من نقاط البيانات الفردية، ألق نظرة على العمود الأخير في كل جدول.
ستجمع بعض التطبيقات نقاط بيانات فردية أكثر من تلك التي تظهر في مرتبة أعلى في الترتيب. وذلك لأن منهجية الترتيب لدينا تأخذ في الاعتبار التطبيقات التي تجمع البيانات عبر معظم الفئات بشكل عام، مما يشير إلى صورة أوسع وبالتالي أكثر "اكتمالاً" لبيانات المستخدم، بدلاً من عمق المعلومات التي تجمعها في كل فئة.
مصادر
المتجر أبل صفحات لكل تطبيق، صحيحة اعتبارًا من فبراير 2025.
تم الوصول إلى وثائق مختلفة لكل تطبيق ذكاء اصطناعي (بما في ذلك الشروط والأحكام وسياسات الخصوصية) ومراجعتها بواسطة Josilda Ndreaj في فبراير 2024، باستثناء DeepSeek، الذي تم الوصول إليه ومراجعته في يناير 2025.
حاسبة قابلية القراءة Flesch-Kincaid.
أداة حساب عدد الكلمات.
جولات مختلفة لإعلام القائمة الأولية لتطبيقات وأدوات الذكاء الاصطناعي، بما في ذلك:
إذا كنت مالكًا لأي من أدوات الذكاء الاصطناعي المدرجة في هذا البحث وترغب في التشكيك في المعلومات الواردة في هذه الصفحة، فنحن على استعداد لتحديثها وفقًا لمراجعتنا للأدلة التي تقدمها. عند الاتصال بنا في هذا الصدد، نطلب منك:
المستندات التجارية التي تثبت شرعيتك (على سبيل المثال، شهادة التأسيس أو مستندات التسجيل)
المعلومات الموجودة في هذه الصفحة تعتقد أنها قديمة (يرجى التحديد)
كيف ينبغي تحديثه ولماذا، مع وجود روابط للوثائق التي تدعم ذلك (على سبيل المثال، تعديلات شروط الخدمة)
يرجى التواصل معنا على [البريد الإلكتروني محمي] مع سطر الموضوع: "طلب تصحيح: دراسة أدوات الذكاء الاصطناعي"، بالإضافة إلى اسم أداة الذكاء الاصطناعي التي تتصل بنا بشأنها.
بوجدان رانشيا هو المؤسس المشارك لـ Ecommerce-Platforms.com والمشرف الرئيسي على ecomm.design، وهو معرض لأفضل مواقع التجارة الإلكترونية. مع أكثر من 12 عامًا في مجال التجارة الرقمية، لديه ثروة من المعرفة ونظرة ثاقبة لتجارب البيع بالتجزئة الرائعة عبر الإنترنت. بصفته مستكشفًا لتقنيات التجارة الإلكترونية، يختبر بوجدان ويراجع منصات وأدوات تصميم مختلفة مثل ShopifyوFigma وCanva ويقدم نصائح عملية لأصحاب المتاجر والمصممين.
يستخدم هذا الموقع ملفات تعريف الارتباط، فقط للوظائف الأساسية والتحليلات كما هو موضح في موقعنا سياسة ملفات الارتباط.