מאחורי האותיות הקטנות: הבנת אפליקציות AI ופרטיות

אם תירשם לשירות מקישור בדף זה, ריבס ובניו מוגבלת עשויה לזכות בעמלה. ראה שלנו אמירה אתית.

בינה מלאכותית הפכה במהרה לחלק מרוח הזמן העכשווי - אך השיקולים האתיים סביב הנושא נותרו בלתי פתורים. כמה משתמשים מודעים לחלוטין למה הם נרשמים?

כאן, על ידי חיזוק התנאים וההגבלות ומדיניות הפרטיות שמאחורי הכלים והאפליקציות הפופולריים ביותר של AI, פלטפורמות מסחר אלקטרוני פותחות את מה שאתה צריך לדעת בעת שימוש בכלים אלה לצרכי העסק היומיומיים שלך.

ניתחנו את הנתונים והמידע האישי שהכלים האלה אוספים (ולאיזו מטרה) כדי לעזור לך לקבוע איזה כלים AI, תוכנות ופלטפורמות הם המתאימים ביותר לשימוש המיועד שלך. התייעצנו גם עם מומחה משפטי כדי לפרק את הז'רגון מאחורי התנאים וההגבלות של הכלים הללו.

ניתחנו את תוויות הפרטיות של Apple App Store עבור כ-30 גרסאות זמינות של אפליקציות ניידות של כלי AI פופולריים כדי להבין אילו מהם אוספים את הנתונים שלך ומדוע. 

הנתונים שנאספים מהמשתמשים (והמטרה שלהם) מחולקים ל-14 קטגוריות, מה שמאפשר לקבוע אילו אפליקציות אוספות ועוקבות אחר הכי הרבה נתוני משתמשים.

לפרטים נוספים, עיין בסעיף המתודולוגיה בסוף עמוד זה.

אילו נתונים אוספות אפליקציות AI אלה?

כלי הבינה המלאכותית שהוערכו במחקר זה אוספים נתונים מסוגים שונים. חלקם מתמקדים בפרטים אישיים על משתמשים - משמות מסך ופרטי בנק, לבריאותם וכושרם, ואפילו מידע רגיש כמו גזע/אתניות, נטייה מינית, זהות מגדרית ודעות פוליטיות. 

אחרים מתייחסים לתוכן שנוצר על ידי משתמשים (כמו מיילים והודעות, תמונות, סרטונים והקלטות קול), או איך משתמשים מקיימים אינטראקציה עם המוצר עצמו, כמו היסטוריית החיפוש שלהם בתוך האפליקציה או אילו פרסומות הם ראו. עוד יותר לא אישי הוא המידע האבחוני שנאסף כדי להציג נתוני התרסקות או שימוש באנרגיה.

מדוע אפליקציות בינה מלאכותיות אלו אוספות נתונים?

יש סיבות שונות מדוע אפליקציות אוספות נתונים, חלקם עשויים להיראות כמוצדקים יותר מאחרים - לדוגמה, ביומטריה או פרטי קשר יכולים לשמש כדי לאמת את זהות המשתמש.

באופן דומה, ייתכן שתידרש גישה לנתונים מסוימים כדי שאפליקציה תפעל כהלכה, כולל כדי למנוע הונאה או לשפר את המדרגיות והביצועים.

ליתר דיוק, אפליקציות העברת הודעות זקוקות לגישה לאנשי קשר, למצלמות טלפון ולמיקרופונים כדי לאפשר שיחות, בעוד שמיקום גיאוגרפי הכרחי עבור אפליקציות מוניות או משלוחים.

אפשר לטעון שסיבות פחות חיוניות לאיסוף נתונים כוללות פרסום או שיווק על ידי מפתח האפליקציה (לדוגמה, כדי לשלוח תקשורת שיווקית למשתמשים שלך); הפעלת פרסום של צד שלישי (על ידי מעקב אחר נתונים מאפליקציות אחרות כדי להפנות מודעות ממוקדות למשתמש, למשל); וניתוח התנהגות משתמשים למטרות כולל הערכת האפקטיביות של תכונות קיימות או תכנון חדשות.

היי משתמש נייד 👋 הטבלאות למטה יכולות להיות גלילה אופקית לראות את כל הנתונים, אבל הדף הזה בהחלט נראה טוב יותר Desktop.

אפליקציות AI שאוספות את הנתונים שלך כדי לשתף עם מפרסמים של צד שלישי

ניתן למיין כותרות עמודות עם לחצנים.
אפליקציית AI % נתונים שותפו עם אחרים היסטוריית גלישה פרטים ליצירת קשר מזהים מקום נתונים אחרים רכישות היסטוריית חיפוש נתוני שימוש מספר נקודות הנתונים שנאספו
קנבה 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
עוזר Google 21% 1 1 1 3
בינג 14% 1 1 2
פיקסאי 14% 1 1 2
וומבו 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
לנסה 7% 1 1
להשמיע 7% 1 1
starryai 7% 1 1

מכל אפליקציות הבינה המלאכותית שנכללו במחקר שלנו, Canva, כלי עיצוב גרפי, אוסף את מירב הנתונים מהמשתמשים שלו למטרות פרסום של צד שלישי - בסביבות 36%. לעומת זאת, חמש האפליקציות שאוספות הכי פחות נתונים למטרה זו אוספות קצת יותר מ-7%.

הנתונים שהאפליקציה של Canva אוספת ממך ומשתפת עם צדדים שלישיים כוללים את היסטוריית החיפושים שלך, המיקום, כתובת האימייל ומידע אחר המוצג בטבלה למעלה. 

עוקב מקרוב אחר Canva היא אפליקציית לימוד השפה המבוססת Duolingo (~36%), עוזר Google (~21%), ו בינג של מיקרוסופט (~14%) - כולם גם לשתף את הנתונים שלך עם צדדים שלישיים

מתוך חמש האפליקציות שאוספות הכי פחות נתונים, רק starryai (מחולל תמונות) מגביל את עצמו לשיתוף נתוני שימוש בלבד.

אפליקציות AI שאוספות את הנתונים שלך לטובתן האישית

ניתן למיין כותרות עמודות עם לחצנים.
האפליקציה % נתונים שנאספו לטובת האפליקציה היסטוריית גלישה פרטים ליצירת קשר מזהים מקום רכישות היסטוריית חיפוש נתוני שימוש מספר נקודות הנתונים שנאספו
קנבה 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
אמזון 36% 4 2 1 1 2 10
עוזר Google 36% 1 2 2 1 2 8
חדר צילום 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
בינג 14% 1 1 2
לנסה 14% 1 1 2
לוטרה 7% 2 2
לאכול 7% 1 1
פו 7% 1 1
פיקסאי 7% 1 1
להשמיע 7% 1 1
וומבו 7% 1 1

Canva גם בראש הטבלה של אפליקציות AI האוספות נתוני משתמשים למטרות פרסום או שיווק משלהן. כדי לעשות זאת, Canva אוספת בסביבות 43% מנתוני המשתמשים שלהם.

במקום השלישי, אמזון אלקסה אוספת 36% של הנתונים שלך לאותה מטרה. זה כולל את כתובת הדוא"ל, הכתובת הפיזית, מספר הטלפון, היסטוריית החיפושים והיסטוריית הרכישות שלך, בתוספת חמש נקודות נתונים נוספות. עוזר Google אוספת ומשתפת את אותו אחוז של נתונים מסיבה זו, אם כי על פני שמונה נקודות נתונים בודדות, בהשוואה לעשר שאמזון אלקסה אוספת.

השמיים מחולל הקול של טקסט לדיבור, Speechify, הוא בין האפליקציות שאוספות הכי פחות נתונים. לפי תוויות הפרטיות שלה ב-Apple App Store, Speechify אוספת רק נקודת נתונים אחת לתועלת עצמה; מזהה המכשיר שלך.

אפליקציות AI שאוספות את הנתונים שלך לכל מטרה

ניתן למיין כותרות עמודות עם לחצנים.
האפליקציה % נתונים שנאספו היסטוריית גלישה פרטים ליצירת קשר אנשי קשר אבחון מידע פיננסי בריאות וכושר מזהים מקום נתונים אחרים רכישות היסטוריית חיפוש מידע רגיש נתוני שימוש תוכן משתמש מספר נקודות הנתונים שנאספו
אמזון 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
עוזר Google 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
קנבה 64% 11 3 1 8 5 4 5 10 6 53
לוטרה 57% 7 3 5 7 2 3 2 11 40
פו 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
בינג 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
ממ 43% 6 4 6 6 6 4 32
ELSA דבר 43% 2 6 6 3 3 3 23
חדר צילום 43% 2 1 9 3 4 1 20
טרינט 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
בינה מלאכותית של מבוכה 36% 6 6 2 1 6 21
1 / 2

כל דגמי הבינה המלאכותית דורשים צורה כלשהי של הכשרה באמצעות למידת מכונה - כלומר הם צריכים נתונים.

אם אנחנו רוצים שכלי AI ישתפרו ויהפכו שימושיים יותר, ניתן לראות בפרטיות שלנו פשרה הכרחית נגד מסירת נתונים אלה.

עם זאת, השאלה היכן הגבול בין תועלת וניצול צריך לצייר, ולמה, הוא אחד קוצני.

בהתחשב בשמצה הנוכחית שלה, כדאי להתייחס ל-DeepSeek. הרישום שלה ב-Apple App Store מציין ש-DeepSeek לא אוספת נתוני משתמשים לטובתה (לדוגמה, השיווק והפרסום של DeepSeek עצמה) או כדי לשתף עם צדדים שלישיים.

אבל כדאי לציין את זה שֶׁלָהֶם מדיניות הפרטיות קובעת אחרת (עוד על כך בהמשך). 

השמיים אפליקציית DeepSeek עצמה אוספת 50% מנתוני המשתמשים שלה, המשרת את פונקציונליות האנליטיקה והאפליקציה של DeepSeek. לשם השוואה, ה אפליקציית ChatGPT אוספת 36%.

חלק מכלי התקשורת מדווחים על חששות לגבי סיכוני אבטחה הקשורים למוצאה הסינית של DeepSeek (הן מבחינת איסוף נתונים והן בהפצה אפשרית של מידע שגוי) והפחתת יריבים בארה"ב. לא סביר שיקל על שניהם התנאים וההגבלות ומדיניות הפרטיות של DeepSeek, אשר ייקח מסביב 35 דקות לקריאה, ומדורגים כ "קשה מאוד" בסולם הקריאות של פלש-קינקייד.

ללא קשר לאופן השימוש בנתונים שלך, אמזון אלקסה אוספת יותר מנתוני המשתמשים שלה מכל אפליקציית AI אחרת נכלל במחקר זה. בסך הכל, זה אוסף 93% של הנתונים שלך (או 116 מדדים בודדים, בעיקר פרטי קשר, תוכן משתמש ונתוני שימוש).

עוזר Google בא אחר כך, אוסף 86%, ואחריו Duolingo, אשר אוסף 79%.

בקצה השני של הסקאלה, מחולל תמונות AI, Stable Diffusion, אינו אוסף נתונים. זה לפי תוויות הפרטיות ברשימת Apple App Store שלה.

אמנם זה נכון שהכל AI ייצור מודלים דורשים כמויות אדירות של נתונים כדי להיות מאומנים, ההדרכה הזו מתרחשת לפני הפיתוח של אפליקציות ספציפיות. ברוב המקרים, יוצרי אפליקציות אינם הבעלים של דגמי הבינה המלאכותית שהם משתמשים בהם; איסוף נתוני המשתמש מתייחס אפוא לפונקציונליות של האפליקציה עצמה. זה עשוי להסביר מדוע לחלק מהאפליקציות שחקרנו אין מידע בטבלה שלמעלה.

ניווט בתנאים וההגבלות מאחורי כלי AI

עכשיו, בואו נסתכל על תיעוד משפטי מאחורי כלי AI שונים כדי לגלות כמה קל או קשה לקרוא אותם. זה מבוסס על מבחן פלש-קינקייד ברמת כיתה קריאה.

מערכת זו משווה טקסטים לרמות הקריאה של בתי ספר בארה"ב (מכיתה ה' עד יב'), ולאחר מכן למכללה, לבוגרי מכללה ולמקצוען. טקסטים בכיתה ו' מוגדרים כ"אנגלית לשיחה לצרכנים", בעוד שטקסטים בעלי דירוג מקצועי מתוארים כ"קשים מאוד לקריאה".

ככל שציון הקריאה נמוך יותר, קשה יותר לקרוא את הטקסט.

ניתן למיין כותרות עמודות עם לחצנים.
קליפ 3 שעות 16 דקות 27.2 🤯🤯🤯🤯🤯🤯🤯
בינג 2 שעות 20 דקות 35.4 🤯🤯🤯🤯🤯
veed.io 2 שעות 15 דקות 37.9 🤯🤯🤯🤯🤯
Facetune 2 שעות 4 דקות 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 שעות 47 דקות 31.4 🤯🤯🤯🤯🤯🤯
לוטרה 1 שעות 11 דקות 32.4 🤯🤯🤯🤯🤯🤯
יָשׁפֵה 1 שעות 9 דקות 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
גמא 1 שעות 6 דקות 30.9 🤯🤯🤯🤯🤯🤯
להשמיע 1 שעות 6 דקות 35.0 🤯🤯🤯🤯🤯🤯
מסלול המראה 1 שעות 2 דקות 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

בשנת 2023, חברת ביטוח העסקים הבריטית Superscript סקר את הבעלים של 500 ארגונים קטנים ובינוניים (SMEs) כדי לגלות מה גוזל את רוב הזמן שלהם.

באופן מדוייק, 'לשון מספיק' - חיוני לבריאות גופנית ונפשית ולתפקוד קוגניטיבי - במקום השלישי, אחרי 'לעבוד שעות ארוכות' ו'לסדר החזרי מס'.

שליש מהנשאלים סברו שלא ניתן לבצע את כל הניהול שלהם בשעות העבודה, ואמרו הם נזקק לארבע שעות נוספות ביום כדי לעבור את הכל.

זה נותן תחושה של כמה ענישה זה יכול להיות לנהל חברת SME, וכי הזמן הדרוש לקריאת התנאים וההגבלות מאחורי הכלים שהם מסתמכים עליהם לא קל להגיע.

בהקשר זה, זמני הקריאה של 40 דקות של התנאים וההגבלות לתמלול כלים כמו Otter, Trint ו-Descript, הם בעלי משמעות רבה. 

ו זה בהנחה שאפשר להבין התנאים וההגבלות הקשים ביותר לקריאה. זו הסיבה שחיפשנו את המומחיות של מומחה משפטי.

ג'וסילדה נדריאג', בעל מקצוע משפטי ועורך דין מורשה, ניווט בעניינים משפטיים מורכבים מטעם לקוחות Fortune 500 וסיפק ייעוץ לתאגידים שונים.

לאחרונה, כיועצת עצמאית, יש לה התמקד בדיני קניין רוחני בצומת של טכנולוגיית בלוקצ'יין ובינה מלאכותית.

Josilda Ndreaj (LLM) היא עורכת דין מקצועית ומורשית עם מומחיות בדיני קניין רוחני (IP).

הקריירה שלה כיועצת משפטית החלה במשרד עורכי דין בינלאומי יוקרתי, המשרת את לקוחות Fortune 500. כאן, ג'וסילדה ניווטה בעניינים משפטיים מורכבים וסיפקה ייעוץ לתאגידים שונים.

מונעת על ידי אינטרסים בחדשנות, יצירתיות וטכנולוגיות מתפתחות, ג'וסילדה יצאה לייעוץ עצמאי והתמקדה בדיני קניין רוחני, על ידי כיסוי הצומת עם טכנולוגיית בלוקצ'יין ובינה מלאכותית.

ג'וסילדה היא בעלת שני תארים לתואר שני במשפטים; האחד מתמחה במשפט אזרחי ומסחרי מאוניברסיטת טירנה, והשני מתמקד בדיני קניין רוחני, מאוניברסיטת ז'ונגנאן לכלכלה ומשפט.

ככזה, ג'וסילדה הייתה במיקום ייחודי לסקור מבחר מהמסמכים המשפטיים של כלי הבינה המלאכותית הללו, שולף נקודות מפתח לטובת אלו מאיתנו שאינם מחזיקים בשני תארים לתואר שני במשפטים.

סיכומיה מפורטים להלן:

לג'מיני (לשעבר בארד) אין חובה להצהיר על מקורות הכשרה, ולכן איננו יכולים לבדוק אם הוא מיומן על חומרים המוגנים בזכויות יוצרים. תאומים אינם נכללים בחבות של הפרה כזו; אם בעל זכויות יוצרים יגיש כתב אישום, ג'מיני נושא באחריות מסוימת. אבל חשוב לציין שתאומים מאומנים על מה שהמשתמש נותן לו. בשביל זה, Gemini דורש רישיון מהמשתמש. אם המשתמש יסכים להעניק רישיון זה לג'מיני, אך הם (המשתמש) אינם בעלי זכויות היוצרים בפועל, האחריות עוברת למשתמש.

המשתמשים שומרים בעלות על התשומות וההנחיות שלהם, אבל בעלות על פלט מורכבת יותר. Gemini לא מבהיר זאת בתנאים שלה. חוקים רבים אינם מכירים בזכויות קניין רוחני של מכונות. עם זאת, מוטלת בספק לטעון שהפלט הוא "נוצר על ידי אדם", גם אם המשתמש הוא הבעלים של הקלט.

דיוק ואמינות

השתמש תמיד בשיקול דעת כשאתה מסתמך על תאומים למידע מדויק. שֶׁלָה התנאים וההגבלות קובעים כי אין להניח את הדיוק באופן אוטומטי על ידי המשתמש. לכן, עליך לבדוק עובדות את כל התוכן שנוצר מ-Gemini. 

בעלי עסקים לעולם לא צריכים לפרסם פלט מג'מיני מבלי להצליב, לבדוק עדכונים ולבדוק עם מומחים לגבי הדיוק. אחרת, הם מסתכנים בפרסום מידע מטעה, שעלול לשאת השלכות מוניטין או משפטיות.

אבטחה וסודיות

גוגל (הבעלים של Gemini) לא מספקת מידע במדיניות הפרטיות שלה לגבי אופן הטיפול בנתונים סודיים.

נוֹהָג

Google אינה מציינת דבר בתנאים וההגבלות שלה לגבי האם ניתן להשתמש בתוכן שנוצר על ידי Gemini למטרות מסחריות. זה מסביר הגבלות על דברים כמו זכויות קניין רוחני אבל שום דבר ספציפי לתוכן שנוצר בינה מלאכותית.

נכון לעכשיו, שום חקיקה לא מחייבת את ChatGPT להצהיר בפומבי על מה המודל שלה מאומן. לכן, מכיוון שהוא לא חושף את המקורות שלו, אנחנו לא יכולים לדעת אם ChatGPT מספקת או מעבדת תוכן המוגן על ידי חוקי זכויות יוצרים. אם מישהו מזהה תוכן המוגן בזכויות יוצרים מ-ChatGPT, הם יכולים להגיש תביעה כדי להסיר את התוכן הזה.

התנאים של ChatGPT קובעים שקלט משתמש, גם אם מוגן בזכויות יוצרים, משמש לשיפור השירות והכשרת המודל; והמשתמש לא יכול לבטל את הסכמתו לכך. התנאים של ChatGPT אומרים שמשתמש הבעלים של כל תוכן הקלט והפלט (אם כבר נעשה שימוש חוקי בתוכן הקלט), אבל זה לא מבטיח שהמשתמש הוא הבעלים של זכויות היוצרים על תוכן הקלט והפלט הזה. בנוסף, משתמשים לא יכולים להעביר שום דבר מ-ChatGPT כ'נוצר על ידי אדם'.

דיוק ואמינות

על המשתמשים לאמת את כל המידע מ-ChatGPT. זה בגלל ChatGPT לא נושא באחריות לספק מדויק, תוכן עדכני. על פי סעיף כתב ויתור אחריות, המשתמש לוקח על עצמו את כל הסיכונים של דיוק, איכות, אמינות, אבטחה ושלמות. לכן, אמת תמיד עובדות מ-ChatGPT; הצלבה, בדוק אם יש עדכונים ובדוק גם עם מומחים לגבי דיוק. בעלי עסקים עלולים לעמוד בפני השלכות משפטיות או מוניטין אם הם לא יאמתו תוכן ChatGPT לדיוק לפני הפרסום. 

אבטחה וסודיות

ChatGPT אוספת מידע מתשומות - כולל מידע אישי - כדי לאמן את הדגמים שלה (על פי מדיניות הפרטיות). המשתמש יכול לבטל את הסכמתו. המצב משתנה אם נתונים נשלחים דרך חיבורי API (ChatGPT Enterprise, Team וכו'); זה בגלל ChatGPT אינו משתמש בתשומות מלקוחות עסקיים להכשיר דוגמניות. ל-ChatGPT יש אמצעי אבטחה, אך אינו מתייחס במפורש לאחריות לפריצת אבטחה. הכל תלוי בחוקים האזוריים. 

נוֹהָג

משתמשי ChatGPT הם הבעלים של תוכן הקלט והפלט שלהם; על המשתמשים, לפיכך, לוודא שהתוכן אינו מפר חוקים כלשהם. משתמשים לא יכולים לטעון שהתוכן נוצר על ידי אדם, אבל אתה גם לא צריך לומר שהוא נוצר בינה מלאכותית. כל עוד המשתמשים מצייתים לחוקים האזוריים ולתנאי השימוש, ניתן להשתמש בתוכן ChatGPT למטרות מסחריות, במדיה חברתית, לפרסום בתשלום וערוצים אחרים. מומלץ לבדוק עובדות, להפנות ולציית לחוקים לפני פרסום תוכן מ-ChatGPT. 

לא מדיניות הפרטיות ולא התנאים מציינים אם כלי ה-AI של DeepSeek הוכשר על חומרים המוגנים בזכויות יוצרים. יתרה מכך, הם גם לא מספקים ערבויות לכך שהפלטים לא יפרו זכויות יוצרים של אף אחד. תנאי השימוש של DeepSeek קובעים זאת משתמשים שומרים על הזכויות על התשומות שלהם (בקשות), אבל זה לא בהכרח אומר שהם מוגנים בזכויות יוצרים מלכתחילה, ולכן המשתמשים צריכים לנקוט בצעדים כדי להבטיח שמה שהם משתמשים בתור הנחיות אינו קניין רוחני של מישהו אחר.

התנאים גם קובעים במפורש כי המשתמש אחראי לכל התשומות והפלטים התואמים, אז עם זה בחשבון, על המשתמשים לאמת אותם באופן עצמאי על ידי פנייה לייעוץ משפטי ו/או שימוש במאגרי מידע של זכויות יוצרים. לדוגמה, ה הקטלוג הציבורי של משרד זכויות היוצרים האמריקאי מאפשר למשתמשים לחפש יצירות רשומות בארה"ב, בעוד חיפוש תמונות הפוך של גוגל עוזר לבדוק אם תמונה פורסמה בעבר או מוגנת בזכויות יוצרים.

דיוק ואמינות

תנאי השימוש של DeepSeek אומרים שהפלטים נוצרים בינה מלאכותית, ולכן עשויים להכיל שגיאות ו/או השמטות. זֶה מתייחס במיוחד לנושאים רפואיים, משפטיים ופיננסיים שמשתמשים עשויים לשאול לגבי DeepSeek, וכיצד התפוקות של DeepSeek אינן מהוות עצה. אבל באופן רחב יותר, זה אומר את אותו הדבר לגבי "נושאים מקצועיים", שיכול להיות כמעט כל דבר - משיווק ומחקר לטכנולוגיה וחינוך ומעבר לכך - ושתפוקות לאמייצגים את דעותיהם של כל שדה מקצועי.' לכן על המשתמשים לאמת באופן עצמאי את כל הפלטים של DeepSeek לצורך דיוק.

אבטחה וסודיות

מדיניות הפרטיות של DeepSeek מסבירה שתשומות משתמשים מעובדות כדי ליצור פלטים, אבל גם כדי לשפר את השירות של DeepSeek. זה כולל "הכשרה ושיפור הטכנולוגיה [שלהם]". לכן על המשתמשים להיות זהירים בהזנת מידע רגיש, ולמרות של-DeepSeek יש 'סביר מבחינה מסחרית' האמצעים שנקבעו כדי להגן על הנתונים והמידע המשמשים כקלט, זה לא מספק שום ערבויות מוחלטות. התנאים של DeepSeek קובעים שהם לא מפרסמים קלט או פלט בפורומים ציבוריים, אבל חלקם עשויים להיות משותפים עם צדדים שלישיים.

נוֹהָג

ניתן להשתמש בכל תוכן שמשתמשים מייצרים באמצעות DeepSeek למטרות מסחריות, אך בגלל אזורים אפורים סביב פלגיאט ודיוק, על המשתמשים לנקוט בצעדים לאימות התוכן לפני השימוש בו בדרך זו. התנאים וההגבלות של DeepSeek אינם מתייחסים לכל הגבלה לגבי היכן בעולם משתמשים יכולים לפרסם תוכן זה, אך הם מציינים בבירור שמשתמשים חייבים להכריז עליו כמופק בינה מלאכותית 'כדי להתריע בפני הציבור על האופי הסינתטי של התוכן'.

Canva לא נדרשת על פי חוק לחשוף את המקורות שלה לנתוני הדרכה. לכן, אנחנו לא יודעים אם נעשה שימוש בחומר המוגן בזכויות יוצרים. המשתמש הוא הבעלים של כל תוכן הקלט והפלט (לא Canva), אך Canva עשויה להשתמש בתוכן זה כדי לשפר את שירותיה. 

דיוק ואמינות

דובי קנבה אין אחריות על דיוק התוכן. המשתמש צריך תמיד לאמת עובדות. 

אבטחה וסודיות

קנבה משתמש בתוכן קלט כדי לאמן את המודל שלו. זה ה אחריות המשתמש להימנע משימוש במידע סודי או אישי לצורך קלט. Canva מנסה לסנן תשומות כאלה לאימון מודלים, אך אין הבטחות. כלי ה-AI של Canva אינו אחראי לבעיות אבטחה הנגרמות על ידי המשתמש.

נוֹהָג

משתמשי Canva יכולים להשתמש תוכן שנוצר למטרות מסחריות. יֵשׁ תנאיםעם זאת, כמו לא לפרסם תוכן מטעה. לחברה יש א רשימה של פריטים אסורים, תחת קטע שכותרתו "היה אדם טוב".

בדומה ל-ChatGPT, DALL-E אינו מצהיר על מקורות להכשרת המודלים שלו. עם זאת, אם אתה מוצא תוכן המוגן בזכויות יוצרים, אתה יכול להגיש תביעה להסרה. קשה לבדוק אם DALL-E מפר זכויות יוצרים מכיוון ששום חקיקה לא מחייבת את DALL-E לחשוף את מקורות הנתונים שלה. קלט משתמש, בהתאם לתנאים, יכול לשמש לאימון הדגם של DALL-E - גם אם זה תוכן המוגן בזכויות יוצרים. המשתמש רשאי לבטל את הסכמתו לכך.  

DALL-E תוכן קלט ופלט משל המשתמשים (לא DALL-E), אבל זה לא אומר שלמשתמש יש זכויות יוצרים על התוכן האמור. כמו כן, משתמשים לא יכול לטעון שתוכן DALL-E נוצר על ידי אדם.

דיוק ואמינות

דובי DALL-E אין אחריות לתוכן לא מדויק. תנאיו מעבירים את כל האחריות על המשתמש. התחייבויות אלו כוללות אמינות תוכן, דיוק, איכות, אבטחה ושלמות. אז לפני הפרסום, משתמשים צריכים תמיד להצליב, לבדוק אם יש עדכונים, לאמת עובדות ולבדוק עם מומחים, שכן פרסום מידע כוזב עלול להוביל להשלכות מוניטין או משפטיות. 

אבטחה וסודיות

מדיניות הפרטיות והתנאים וההגבלות של DALL-E לעולם אינם מתייחסים באופן מפורש לאחריות במקרה של פרצת אבטחה. עם זאת, ל-DALL-E יש אמצעי אבטחה. מי נושא באחריות במקרה של פריצה תלוי בחוקים האזוריים.

DALL-E אוסף קלט של משתמש לצורך אימון מודלים, אפילו מידע אישי, אבל אתה יכול לבטל את הסכמתך לכך. עם ה-API, לעומת זאת, DALL-E מטפל בנתוני קלט בצורה שונה; היא לא משתמשת בנתונים ממשתמשים עסקיים כדי להכשיר את המודלים שלה

נוֹהָג

השמיים המשתמש הוא הבעלים של DALL-E תוכן קלט ופלט; כמו כן, עליהם לוודא שהתוכן אינו מפר חוקים או תנאי DALL-E. אתה לא יכול לטעון שתוכן מ-DALL-E נוצר על ידי אדם, אבל אתה גם לא צריך לומר שהוא נוצר בינה מלאכותית. 

אתה יכול להשתמש ב-DALL-E למטרות מסחריות, כל עוד אתה ממלא אחר כל החוקים ותנאי DALL-E. התקנות עשויות להשתנות, אך בזמן כתיבת שורות אלה, המשתמשים מוזמנים לפרסם תכני DALL-E ברשתות החברתיות, בפרסומות ובערוצים נוספים. על המשתמשים תמיד לבצע הפניות נאותות ודיוק בדיקת עובדות כדי להימנע מהפרת חוקים כלשהם.

ל-Bing אין חובה לשתף את מקורות ההדרכה של הנתונים שלה, מה שמקשה מאוד להבין אם Bing AI משתמש בשוגג בתוכן המוגן בזכויות יוצרים. למרות שקשה לזהות, משתמשים יכולים להגיש תביעות על תוכן המוגן בזכויות יוצרים. הסכם השירותים של מיקרוסופט אומר ש-Bing AI לוקח תשומות ותפוקות של משתמשים כדי לשפר את המודל שלה, אבל אין שום דבר רשמי כדי למנוע גניבת קניין רוחני.

השמיים הסכם השירותים אומר שמשתמשים מעניקים למיקרוסופט רישיון קניין רוחני עולמי וללא תמלוגים להשתמש בתוכן שלך. יתר על כן, Bing/Microsoft לוקח קלט של משתמשים כדי לאמן מודלים של AI.

דיוק ואמינות

מיקרוסופט אינה מציעה ערבויות לדיוק או לעדכניות של התוכן משירותי הבינה המלאכותית שלה. לכן, עליך לבדוק כל דבר מכלי הבינה המלאכותית של מיקרוסופט, במיוחד אם אתה בעל עסק שרוצה להימנע מכל השלכות מוניטין ומשפטיות. 

אבטחה וסודיות

כלי ה-AI של מיקרוסופט (כולל Bing AI) להשתמש בנתוני משתמש אישיים וסודיים כדי להכשיר את הדגמים שלו. הסכם השירות שלו אינו מכסה תוכן שנוצר בינה מלאכותית; במקום זאת, הוא מנסה להעביר את כל האחריות לתוכן AI אל המשתמש. גם מיקרוסופט אינה נושאת באחריות לפרטיות ואבטחה של לקוחותיה. בקיצור, אם הנתונים שלך נפרצו בזמן השימוש ב-Bing AI, זו הבעיה שלך, לא של מיקרוסופט.  

נוֹהָג

Microsoft אינה טוענת לבעלות על תוכן משתמש, אבל זה לא מסדיר באופן ספציפי תוכן שנוצר בינה מלאכותית, שבו הבעלות אינה ודאית. הסכם השירותים מאפשר לאנשים להשתמש בתוכן למטרות מסחריות, עם כמה תנאים משמעותיים: עליך לקבל שתוכן שנוצר בינה מלאכותית חסר יצירתיות אנושית, ולכן לא ניתן לתבוע אותו כקניין רוחני; אסור גם להפר את זכויות הקניין הרוחני של אחרים. בקיצור, אתה לא יכול להשתמש בקניין רוחני של אחרים, אבל מה שאתה עושה עם בינג הוא כנראה לא הקניין הרוחני שלך.

לקווילבוט יש אין חובה לחשוף מקורות שבהם הוא משתמש להכשרת דוגמניות. עם זאת, באופן מעניין החברה מנסה לווסת מצב ייחודי אחד: מה אם המקור לאימון המודלים הוא הפלט של ה-AI? Quillbot בעצם מנסה למזער את הפוטנציאל לפלט המוגן בזכויות יוצרים, אך קובע שעדיין יש סיכוי שהפלט מוגן בזכויות יוצרים אם המשתמשים מזינים תוכן המוגן בזכויות יוצרים. כדי להפוך את הדברים לבלבלים יותר, Quillbot מנסה לכסות את כל התחומים באמירה שמשתמשים מעניקים ל-Quillbot רישיון בלתי מוגבל, בר רישיון משנה, תוך שהוא טוען שמשתמשים הם בעלי כל התפוקות שלהם. 

דיוק ואמינות

דובי קווילבוט אין אחריות על דיוק או אמינות. על המשתמשים להיות זהירים מאוד ולאמת את כל העובדות מ-Quillbot. 

אבטחה וסודיות

לקווילבוט יש אמצעים להגנה על פרטיות המשתמש, אבל זה עדיין עלול בסופו של דבר לעבד נתונים אישיים. קיימות הגנות מיוחדות לפרטיות הילדים. האחריות לאובדן נתונים כתוצאה מפריצה מטופלת על בסיס כל מקרה לגופו. Quillbot מצהיר שהמשתמש צריך לנקוט בצעדים כדי למנוע פריצת הנתונים האישיים שלו, וכי ל-Quillbot יש אלמנטים להגנה על נתונים. 

נוֹהָג

משתמשי Quillbot יכולים לפרסם תוכן שנוצר למטרות מסחריות, אך ייתכן שיהיה עליך לציית לכללים מסוימים, כמו אי פרסום תוכן מזיק או מטעה. של קווילבוט תנאי השירות אל תגיד שאתה צריך להצהיר שהתוכן שלו נוצר בינה מלאכותית. בקיצור, ה המשתמש יכול לפרסם תוכן שנוצר על ידי Quillbot כל עוד זה לא מפר שום חוקים או זכויות. 

Pixlr לא חושפת את המקורות שלה לאימון מודלים של AI, מכיוון שאין להם חובה חוקית לעשות זאת. התנאים שלה קובעים שהמשתמש הוא הבעלים של התוכן, אבל גם המשתמשים להעניק רישיון ל-Pixlr להשתמש בתוכן. זהו ניסיון למזער את השימוש בתוכן המוגן בזכויות יוצרים. 

דיוק ואמינות

Pixlr אינה נושאת באחריות לאי דיוקים בתוכן שנוצר בינה מלאכותית. על המשתמשים להקפיד לבדוק כל דבר מ-Pixlr. 

אבטחה וסודיות

Pixlr לוקח קלט של משתמשים לאימון מודל AI. זה מעביר את הנטל למשתמש להיזהר בהזנה מידע אישי או סודי. Pixlr מוותרת על אחריותה לסנן מידע מסוים מנתוני ההדרכה שלה, אם כי היא משתמשת בכמה מסננים כדי לחסום מידע אישי או סודי. Pixlr טוען אין אחריות לבעיות אבטחה שנגרמו מפעולות המשתמשים

נוֹהָג

משתמשים יכולים לפרסם תוכן שנוצר באמצעות Pixlr למטרות מסחריות (אם כי חלים תנאים מסוימים). התנאים לא דורשים ממך לציין שמשהו נוצר בינה מלאכותית. עם זאת, המשתמשים עדיין אחראים להפרת זכויות או חוקים. 

אמצע מסע משתמשים מעניקים לחברה זכויות על כל הנכסים שנעשו באמצעותה, אבל המשתמש הוא גם הבעלים של כל הנכסים. יש יוצאים מן הכלל, כמו איך אתה לא יכול לתבוע בעלות אם אתה זה עתה שידרגו תמונה מיוצר מקורי.

דיוק ואמינות

Midjourney אינה נושאת באחריות לאמינות ולדיוק מהתוכן שלו. לכן, על המשתמשים לנקוט משנה זהירות כדי לאמת עובדות ולבדוק מהימנות. 

אבטחה וסודיות

Midjourney מכשירה את הדגם שלה עם תשומות משתמשים, גם אם היא כוללת נתונים אישיים או סודיים. Midjourney טוענת שהמשתמש צריך להיות זהיר עם נתונים רגישים, כך שזה לא הבעיה שלהם. החברה מנסה לסנן מידע מסוים לצורך הכשרת מודלים, אבל זה לא חובה. Midjourney אינה תובעת אחריות לבעיות אבטחה שעלולות להתרחש כתוצאה מפעולות של משתמש. 

נוֹהָג

משתמשי Midjourney יכולים לפרסם תוכן שנוצר למטרות מסחריות. תנאים מסוימים, כמו הדרישה להירשם לגרסת ה-Pro אם החברה מרוויחה יותר ממיליון דולר בשנה, להחיל. בזמן כתיבת שורות אלה, המשתמשים לא צריכים לטעון ששום דבר הוא בינה מלאכותית שנוצרה מ-Midjourney, למרות שקיימת חקיקה לשנות זאת. משתמשים יכולים בדרך כלל להשתמש בכל תוכן של Modjourney אם הוא אינו מפר זכויות או חוקים כלשהם. 

Clipchamp הוא מוצר של מיקרוסופט, ולכן היא אינה טוענת שהיא מחויבת לשתף מקורות נתונים לצורך אימון מודלים. לכן, קשה לדעת אם כלי הבינה המלאכותית משתמש בטעות בנתונים המוגנים בזכויות יוצרים. מישהו חייב לזהות את הפרת זכויות היוצרים כדי להגיש תביעה, וזה לא סביר. הסכם השירותים של מיקרוסופט אומר הוא יכול להשתמש בתשומות ובפלטים של משתמשים כדי לשפר את השירותים, ו-Microsoft אינה מסדירה ענייני קניין רוחני. גַם, משתמשים מעניקים למיקרוסופט רישיון קניין רוחני עולמי ללא תמלוגים

דיוק ואמינות

קליפשאמפ ומיקרוסופט לא מבטיח דבר במונחים של דיוק או עמידה בזמנים של כלי ה-AI שלו, כך שמשתמשים צריכים לאמת את כל העובדות לפני הפרסום. זה נכון במיוחד עבור בעלי עסקים שעלולים לעמוד בפני השלכות משפטיות ומוניטין. 

אבטחה וסודיות

קליפשאמפ ומיקרוסופט להשתמש בנתונים אישיים וסודיים להכשרת מודלים. מיקרוסופט מנסה להעביר את האחריות לכל נושא התוכן אל המשתמש. אותו דבר לגבי פריצות ואבטחה; זה באחריות המשתמש אם משהו יקרה. 

נוֹהָג

Clipchamp ומיקרוסופט מתרחקים מוויסות תוכן שנוצר בינה מלאכותית, מעולם לא טוען שמיקרוסופט היא הבעלים של התוכן. מבחינה טכנית, מיקרוסופט אומרת שהמשתמש הוא הבעלים שלו אבל ללא זכויות הקניין הרוחני. המשתמש יכול לפרסם תוכן של Clipchamp למטרות מסחריות עם שתי התניות: אינך יכול להפר זכויות קניין רוחני, או לטעון שיש לך זכויות קניין רוחני עבור תוכן שנוצר. 

הלוקה תנאי השירות ציין שלחברה אין חובות לשתף מקורות אימון נתונים, ולכן אין להם. המשתמשים נושאים בכל הסיכונים בעת שימוש בתוכן שנוצר על ידי Looka. 

דיוק ואמינות

Looka אינה מקבלת אחריות על הדיוק והאמינות של הפלט מכלי הבינה המלאכותית שלה. על המשתמשים לאמת את כל העובדות ולבדוק מהימנות. 

אבטחה וסודיות

Looka משתמשת בנתוני קלט - אפילו נתונים שעלולים להיות אישיים וסודיים - כדי להכשיר את המודל שלה, כך שהמשתמש אחראי לא להשתמש בסוג זה של נתונים בקלט שלו. Looka מנסה לסנן נתונים כאלה, אבל הם טוענים שהם לא חייבים. בנוסף, כל בעיות האבטחה הן הנטל של המשתמש. 

נוֹהָג

משתמשי Looka עשויים להשתמש בתוכן שנוצר בינה מלאכותית למטרות מסחריות, אך ייתכן שהם יצטרכו לעמוד בתנאים או לשלם אגרה. משתמשים לא צריכים לתייג את התוכן שנוצר שלהם כמופק בינה מלאכותית. על המשתמשים להימנע מפרסום תוכן שנוצר המפר זכויות או חוקים. 

לא ניתן לדעת אם Speechify מכשיר את הדגם שלו על חומרים המוגנים בזכויות יוצרים. אנחנו פשוט לא יודעים. התנאים של Speechify ממליצים לא להשתמש בחומר המוגן בזכויות יוצרים עבור תשומות, מה שמצביע על כך שחלק מהפלטים עשויים להיות בעלי נתונים המוגנים בזכויות יוצרים. Speechify טוען שאינו נושא באחריות לכך

דיוק ואמינות

Speechify, לפי זה תנאי השירות, אינו לוקח אחריות על דיוק התפוקות שלו. משתמשים צריכים תמיד לבדוק את עמידה בזמנים, מהימנות ודיוק עם Speechify. 

אבטחה וסודיות

להשמיע מעביר את כל האחריות למשתמש בכל הנוגע להזנת נתונים רגישים או אישיים. הכלי אכן משתמש בתשומות כדי להכשיר מודלים, ולכן המשתמשים צריכים להיות זהירים. Speechify לא בהכרח חייב לסנן נתונים רגישים או אישיים, אבל הוא מנסה לעשות זאת עם כמה מסננים. כל האחריות לבעיות אבטחה עוברת למשתמש. 

נוֹהָג

משתמשי Speechify עשויים להשתמש פלטים למטרות מסחריות, עם כמה תנאים כמו צורך להירשם או לקבל רישיון. משתמשים לא צריך להצהיר שתוכן Speechify נוצר בינה מלאכותית. עם זאת, משתמשי Speechify לא צריכים להפר זכויות או חוקים בעת פרסום פלטי Speechify. 

הקאפווינג התנאים מטילים את כל אחריות הקניין הרוחני והדיוק על המשתמש. כל המשתמשים מעניקים ל-Kapwing רישיון לא בלעדי, אבל המשתמשים שומרים בבעלות על התוכן. Kapwing לא חושף דבר לגבי האם הוא משתמש בנתוני קלט לצורך אימון מודלים. 

דיוק ואמינות

קפווינג מטיל את כל אחריות הדיוק על המשתמש, במיוחד כל השלכות משפטיות ומוניטין.

אבטחה וסודיות

משתמשי Kapwing לוקחים על עצמם את כל הסיכונים כשהם בוחרים להזין מידע סודי לכלי הבינה המלאכותית שלו. זה גם אינו מציע אחריות או אחריות על אבטחת השירות.

נוֹהָג

אתה יכול לפרסם תוכן של Kapwing באופן מסחרי, אבל Kapwing ממליץ למשתמשים להיות זהירים. התנאים שלהם אינם אומרים אם המשתמשים חייבים להצהיר על פלט מ-Kapwing שנוצר בינה מלאכותית.

Otter.ai מצהירה כי היא אינה מתירה חומרים המפרים זכויות יוצרים בשירותיה, אך קשה לאמת טענה זו. משתמשים שומרים בבעלות וזכויות יוצרים על תשומות ופוסטים ב-Otter.ai, אבל Otter.ai אומר המשתמשים אחראים ל לא להזין תוכן המוגן בזכויות יוצרים בעבר. Otter.ai עשוי גם להשתמש בתשומות ללמידת מכונה.

דיוק ואמינות

Otter.ai מוציא את עצמו מאחריות לגבי דיוק ואמינות, לכן המשתמשים צריכים תמיד לאמת את התוכן. שימוש במידע מטעה עובדתית או שגוי עלול לגרום לבעיות משפטיות או מוניטין עבור המשתמש. 

אבטחה וסודיות

כל הסיכון של חשיפת מידע סודי on Otter.ai שייך למשתמש. 

נוֹהָג

משתמשים יכולים לפרסם מתוך כוונה מסחרית מכיוון שהמשתמשים הם הבעלים של התוכן מ- Otter.ai. עם זאת, לתוכן שנוצר בינה מלאכותית אין כללי בעלות ברורים. גם Otter.ai קובע ניתן לחפש ולשתף את ההערות המתומללות שלו.

PhotoRoom יכול לקחת תשומות ופלטים של משתמשים לצורך אימון מודלים, אבל יש מידע מוגבל אם השירות עושה זאת או לא. תנאי PhotoRoom מזכירים למשתמשים להימנע מהאכלה בתוכן המוגן בזכויות יוצרים. המשתמשים נושאים בכל אחריות לזה. 

דיוק ואמינות

חדר צילום אינה נושאת באחריות לדיוק או מהימנות התוכן שנוצר ב-AI. על המשתמשים להפעיל בדיקות משלהם כדי לאמת זאת.

אבטחה וסודיות

PhotoRoom משתמש בתשומות כדי להכשיר את הדגמים שלה. המשתמשים אחראים בהכנסת סודיות or מידע אישי. השירות מנסה לסנן סוגים אלה של תשומות אך אינו טוען כי הוא אינו דורש זאת. המשתמשים נושאים בכל אחריות לבעיות אבטחה. 

נוֹהָג

תוכן PhotoRoom יכול לשמש למטרות מסחריות, אך עשויים לחול תנאים מסוימים, כמו ההרשמה למנוי. התנאים קובעים שאינך חייב לסמן תוכן כנוצר בינה מלאכותית. משתמשים עשויים לראות השלכות אחרות אם הם מפרים זכויות או חוקים. 

כתב ויתור

מידע זה מיועד למטרות מידע כללי בלבד ואין לראות בו כייעוץ משפטי. פלטפורמות מסחר אלקטרוני אינן נושאות באחריות לשגיאות או השמטות. התייעץ עם עורך דין מתאים לקבלת ייעוץ והכוונה המותאמים לצרכים ולנסיבות הספציפיים שלך.

סיכום

נוכחותו בכל מקום של AI גורמת לסבירות גבוהה יותר עבור כולנו להשתמש בכלים ובאפליקציות המבוססות על טכנולוגיה זו - אך לרבים מאיתנו אין את המותרות של הזמן הדרוש כדי לקרוא את התנאים וההגבלות שלהם. 

בשנת 2017, רשת שירותים מקצועיים דלויט מצא כי 91% מהצרכנים "קבל ברצון את התנאים וההגבלות המשפטיים מבלי לקרוא אותם" - עלייה ל-97% בין הגילאים 18 ל-34.

בהתחשב בכמה T&Cs בינה מלאכותית דירגנו עם ציוני קריאה נמוכים, נראה שכן חוסר החדירות של המסמכים המשפטיים האלה מונע מהמשתמשים אפילו לנסות להבין אותם. 

עבדנו עם עורך דין כדי לנתח עבורנו את המסמכים, אבל יש ספק אם זה צריך להיות נחוץ.

אנו מקווים שהמחקר הזה - כולל דירוגי הקריאה שלו, והמומחיות של ג'וסילדה נדריאג' לגבי התנאים וההגבלות שיש לשים לב אליהם - יעזור להנחות את הבחירות שלך באילו אפליקציות וכלים בינה מלאכותית לעסוק. 

מתודולוגיה ומקורות

איך ביצענו את המחקר

החל מרשימת ראשי של כ-90 כלים ואפליקציות בינה מלאכותית, אספנו תחילה את התיעוד המשפטי של כל כלי, מתנאים והגבלות ועד למדיניות פרטיות. לאחר מכן הקלטנו את אורכי המילים של מסמכים אלה, וחישבנו את ציון הקריאות שלהם באמצעות מערכת הדירוג של Flesch-Kincaid. לאחר מכן, נעזרנו במומחית משפטית, Josilda Ndreaj (LLM), שבדקה מבחר מהמסמכים המשפטיים הללו וזיהתה נקודות מפתח שהמשתמשים צריכים להיות מודעים אליהם.

עבור כ-30 מכלי הבינה המלאכותית שיש להם גרסאות זמינות של אפליקציות לנייד, חיפשנו כל אחד מהם ב-Apple App Store ורשמנו את תוויות הפרטיות שלהם המוצגות ברישומים שלהם. אלה מחולקים ל-14 קטגוריות של נתונים שניתן לאסוף מהמשתמשים, ולאיזו מטרה. כדי לחשב אילו אפליקציות AI אספו הכי הרבה נתונים, מדדנו כמה מתוך 14 הקטגוריות האפשריות אפליקציות אלה עקבו אחר המשתמשים שלהן. 

חשוב לציין ש-14 הקטגוריות הללו מחולקות עוד יותר לנקודות נתונים בודדות. לדוגמה, 'מידע ליצירת קשר' כולל חמש נקודות נתונים, שהן; 'שם', 'כתובת דואר אלקטרוני', 'מספר טלפון', 'כתובת פיזית' ו'פרטי איש קשר אחרים של משתמש'. כדי לגלות אילו אפליקציות אוספות הכי הרבה נקודות נתונים בודדות, עיין בעמודה האחרונה בכל אחת מהטבלאות.

אפליקציות מסוימות יאספו יותר נקודות נתונים בודדות מאלה המופיעות גבוה יותר בדירוג. הסיבה לכך היא שמתודולוגיית הדירוג שלנו בוחנת אילו אפליקציות אוספות נתונים על פני הקטגוריות הרבות ביותר בסך הכל, מה שמציע תמונה רחבה יותר ולכן 'שלמה' יותר של נתוני משתמשים, במקום את עומק המידע שהם אוספים בכל קטגוריה. 

מקורות

בקשות תיקון

אנו מעדכנים מדי פעם את המחקר הזה.

אם אתה הבעלים של כל אחד מכלי הבינה המלאכותית הכלולים במחקר זה וברצונך לערער על המידע בדף זה, אנו מוכנים לעדכן אותו בכפוף לבדיקתנו של העדויות שאתה מספק. כאשר פונים אלינו בעניין זה, אנו מבקשים: 

  • מסמכים עסקיים המאמתים את הלגיטימיות שלך (לדוגמה, תעודת התאגדות או מסמכי רישום) 
  • המידע בדף זה לדעתך מיושן (נא להיות ספציפי)
  • איך צריך לעדכן ולמה, עם קישורים לתיעוד שמגבה זאת (לדוגמה, תיקונים לתנאים וההגבלות)

צור איתנו קשר בכתובת [מוגן בדוא"ל] עם שורת הנושא: 'בקשת תיקון: לימוד כלי בינה מלאכותית', בתוספת השם של כלי הבינה המלאכותית שאתה יוצר איתנו קשר לגביו.

בוגדן רנצ'ה

Bogdan Rancea הוא המייסד המשותף של Ecommerce-Platforms.com והאוצר הראשי של ecomm.design, חלון הראווה של אתרי המסחר האלקטרוני הטובים ביותר. עם למעלה מ-12 שנים בתחום המסחר הדיגיטלי, יש לו שפע של ידע ועין חדה לחוויות קמעונאות מקוונות נהדרות. בתור חוקר טכנולוגיות מסחר אלקטרוני בוגדן בודק וסוקר פלטפורמות שונות וכלי עיצוב כמו Shopify, Figma ו-Canva ומספק עצות מעשיות לבעלי חנויות ומעצבים.