Đằng sau những dòng chữ nhỏ: Hiểu về ứng dụng AI và quyền riêng tư

Nếu bạn đăng ký một dịch vụ từ một liên kết trên trang này, Reeves and Sons Limited có thể kiếm được hoa hồng. Xem của chúng tôi Chuẩn mực đạo đức.

Trí tuệ nhân tạo đã nhanh chóng trở thành một phần của tinh thần thời đại đương đại — tuy nhiên những cân nhắc về mặt đạo đức xung quanh chủ đề này vẫn chưa được giải quyết. Có bao nhiêu người dùng biết rõ những gì họ đang đăng ký?

Tại đây, bằng cách tập trung vào các điều khoản, điều kiện và chính sách bảo mật của các công cụ và ứng dụng AI phổ biến nhất, Ecommerce Platforms sẽ cung cấp những thông tin bạn cần biết khi sử dụng các công cụ này cho nhu cầu kinh doanh hàng ngày của mình.

Chúng tôi đã phân tích dữ liệu và thông tin cá nhân mà các công cụ này thu thập (và mục đích thu thập) để giúp bạn xác định Công cụ AI, phần mềm và nền tảng phù hợp nhất với mục đích sử dụng của bạn. Chúng tôi cũng đã tham khảo ý kiến ​​của một chuyên gia pháp lý để giải thích thuật ngữ chuyên ngành đằng sau các điều khoản và điều kiện của những công cụ này.

Chúng tôi đã phân tích nhãn quyền riêng tư của Apple App Store cho khoảng 30 phiên bản ứng dụng di động có sẵn của các công cụ AI phổ biến để hiểu công cụ nào thu thập dữ liệu của bạn và lý do tại sao. 

Dữ liệu thu thập từ người dùng (và mục đích của dữ liệu) được chia thành 14 danh mục, giúp xác định ứng dụng nào thu thập và theo dõi nhiều dữ liệu người dùng nhất.

Để biết thêm chi tiết, hãy xem phần phương pháp ở cuối trang này.

Những ứng dụng AI này thu thập dữ liệu gì?

Các công cụ AI được đánh giá trong nghiên cứu này thu thập dữ liệu thuộc nhiều loại khác nhau. Một số trong số này tập trung vào thông tin cá nhân của người dùng — từ tên màn hình và thông tin ngân hàng, đến sức khỏe và thể lực, thậm chí cả thông tin nhạy cảm như chủng tộc/dân tộc, khuynh hướng tình dục, bản dạng giới và quan điểm chính trị. 

Những thông tin khác liên quan đến nội dung do người dùng tạo ra (như email và tin nhắn, ảnh, video và bản ghi âm) hoặc cách người dùng tương tác với chính sản phẩm, như lịch sử tìm kiếm trong ứng dụng hoặc quảng cáo họ đã xem. Thông tin chẩn đoán được thu thập để hiển thị dữ liệu sự cố hoặc mức sử dụng năng lượng còn phi cá nhân hơn nữa.

Tại sao các ứng dụng AI này lại thu thập dữ liệu?

những lý do khác nhau tại sao các ứng dụng thu thập dữ liệu, một số trong đó có thể được coi là hợp lý hơn những cái khác — ví dụ, thông tin sinh trắc học hoặc thông tin liên lạc có thể được sử dụng để xác thực danh tính của người dùng.

Tương tự như vậy, ứng dụng có thể cần quyền truy cập vào một số dữ liệu nhất định để hoạt động chính xác, bao gồm cả việc ngăn chặn gian lận hoặc cải thiện khả năng mở rộng và hiệu suất.

Cụ thể hơn, các ứng dụng nhắn tin cần truy cập vào danh bạ, camera điện thoại và micrô để thực hiện cuộc gọi, trong khi ứng dụng gọi taxi hoặc giao hàng cần có tính năng định vị địa lý.

Có thể lập luận rằng những lý do ít cần thiết hơn để thu thập dữ liệu bao gồm quảng cáo hoặc tiếp thị của nhà phát triển ứng dụng (ví dụ: để gửi thông tin tiếp thị tới người dùng của bạn); cho phép quảng cáo của bên thứ ba (bằng cách theo dõi dữ liệu từ các ứng dụng khác để hướng quảng cáo có mục tiêu tới người dùng, ví dụ); và phân tích hành vi của người dùng cho các mục đích bao gồm đánh giá hiệu quả của các tính năng hiện có hoặc lập kế hoạch cho các tính năng mới.

Hey mobile user 👋 The tables below can be scrolled horizontally to see all the data, but this page definitely looks better on Desktop.

Ứng dụng AI thu thập dữ liệu của bạn để chia sẻ với các nhà quảng cáo bên thứ ba

Tiêu đề cột có nút có thể sắp xếp được.
Ứng dụng AI % dữ liệu được chia sẻ với người khác Lịch sử trình duyệt LIÊN HỆ Định danh Địa điểm Dữ liệu khác Mua Lịch sử tìm kiếm Dữ liệu sử dụng Số điểm dữ liệu được thu thập
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
wombo 14% 1 1 2
ChatGPT 7% 1 1
Thần đèn AI 7% 1 1
ống kính 7% 1 1
phát biểu 7% 1 1
ngôi sao 7% 1 1

Trong số tất cả các ứng dụng AI được đưa vào nghiên cứu của chúng tôi, Canva, một công cụ thiết kế đồ họa, thu thập nhiều dữ liệu nhất từ ​​người dùng cho mục đích quảng cáo của bên thứ ba — khoảng 36%. Ngược lại, năm ứng dụng thu thập ít dữ liệu nhất cho mục đích này chỉ thu thập được hơn 7%.

Dữ liệu mà ứng dụng Canva thu thập từ bạn và chia sẻ với bên thứ ba bao gồm lịch sử tìm kiếm, vị trí, địa chỉ email và thông tin khác được hiển thị trong bảng trên. 

Tiếp theo sau Canva là ứng dụng học ngôn ngữ theo kiểu trò chơi Duolingo (~36%), Google Assistant (~21%) và Bing của Microsoft (~14%) — tất cả những cái đó cũng chia sẻ dữ liệu của bạn với bên thứ ba

Trong số năm ứng dụng thu thập ít dữ liệu nhất, chỉ có ngôi sao (một trình tạo hình ảnh) chỉ giới hạn trong việc chia sẻ dữ liệu sử dụng.

Các ứng dụng AI thu thập dữ liệu của bạn vì lợi ích của riêng chúng

Tiêu đề cột có nút có thể sắp xếp được.
Ứng dụng % dữ liệu được thu thập vì lợi ích của ứng dụng Lịch sử trình duyệt LIÊN HỆ Định danh Địa điểm Mua Lịch sử tìm kiếm Dữ liệu sử dụng Số điểm dữ liệu được thu thập
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
phòng photo 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
ngôi sao 14% 2 1 3
Bing 14% 1 1 2
ống kính 14% 1 1 2
Rái cá 7% 2 2
Bạn 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
phát biểu 7% 1 1
wombo 7% 1 1

Canva cũng đứng đầu bảng xếp hạng các ứng dụng AI thu thập dữ liệu người dùng cho mục đích quảng cáo hoặc tiếp thị của riêng họ. Để làm như vậy, Canva thu thập khoảng 43% dữ liệu của người dùng.

Ở vị trí thứ ba, Amazon Alexa thu thập 36% dữ liệu của bạn cho cùng một mục đích. Điều này bao gồm địa chỉ email, địa chỉ thực, số điện thoại, lịch sử tìm kiếm và lịch sử mua hàng của bạn, cùng với năm điểm dữ liệu khác. Google Assistant thu thập và chia sẻ cùng một tỷ lệ phần trăm dữ liệu vì lý do này, mặc dù trên tám điểm dữ liệu riêng lẻ, so với mười điểm mà Amazon Alexa thu thập.

Sản phẩm Công cụ chuyển văn bản thành giọng nói, Speechify, là một trong những ứng dụng thu thập ít dữ liệu nhất. Theo nhãn quyền riêng tư của danh sách Apple App Store, Speechify thu thập chỉ một điểm dữ liệu vì lợi ích riêng của nó; ID thiết bị của bạn.

Ứng dụng AI thu thập dữ liệu của bạn cho bất kỳ mục đích nào

Tiêu đề cột có nút có thể sắp xếp được.
Ứng dụng % dữ liệu được thu thập Lịch sử trình duyệt LIÊN HỆ Liên hệ Chẩn đoán Thông tin tài chính Sức khỏe & Thể dục Định danh Địa điểm Dữ liệu khác Mua Lịch sử tìm kiếm Thông tin nhạy cảm Dữ liệu sử dụng Nội dung của Người dùng Số điểm dữ liệu được thu thập
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Rái cá 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
tìm kiếm sâu 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA Nói 43% 2 6 6 3 3 3 23
phòng photo 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
AI bối rối 36% 6 6 2 1 6 21
1 / 2

Tất cả các mô hình AI đều yêu cầu một số hình thức đào tạo thông qua máy học — nghĩa là họ cần dữ liệu.

Nếu chúng ta muốn các công cụ AI được cải thiện và trở nên hữu ích hơn, quyền riêng tư của chúng tôi có thể được coi là sự đánh đổi cần thiết để không phải cung cấp dữ liệu này.

Tuy nhiên, câu hỏi ở đâu ranh giới giữa tiện ích và khai thác nên được rút ra, và tại sao, là một câu hỏi hóc búa.

Với sự khét tiếng hiện tại của nó, việc giải quyết DeepSeek là điều đáng giá. Theo danh sách trên Apple App Store, DeepSeek không thu thập dữ liệu người dùng vì lợi ích riêng (ví dụ: hoạt động tiếp thị và quảng cáo của DeepSeek) hoặc chia sẻ với bên thứ ba.

Nhưng điều đáng chú ý là cung cấp their dịch Chính sách bảo mật nêu rõ điều ngược lại (thêm về điều này sau). 

Sản phẩm Bản thân ứng dụng DeepSeek thu thập 50% dữ liệu của người dùng, phục vụ cho chức năng ứng dụng và phân tích của DeepSeek. Để so sánh, Ứng dụng ChatGPT thu thập 36%.

Một số phương tiện truyền thông đưa tin về những lo ngại về rủi ro bảo mật liên quan đến nguồn gốc Trung Quốc của DeepSeek (cả về mặt thu thập dữ liệu và khả năng phát tán thông tin sai lệch) và việc hạ giá đối thủ cạnh tranh của Hoa Kỳ. Cả hai đều không có khả năng được giảm bớt bằng Điều khoản và điều kiện và Chính sách bảo mật của DeepSeek, sẽ mất khoảng 35 phút để đọcvà được đánh giá là "rất khó" trên thang đo khả năng đọc hiểu Flesch-Kincaid.

Bất kể dữ liệu của bạn được sử dụng như thế nào, Amazon Alexa thu thập nhiều dữ liệu của người dùng hơn bất kỳ ứng dụng AI nào khác được bao gồm trong nghiên cứu này. Nhìn chung, nó thu thập 93% dữ liệu của bạn (hoặc 116 số liệu riêng lẻ, chủ yếu là thông tin liên hệ, nội dung người dùng và dữ liệu sử dụng).

Google Assistant tiếp theo là thu thập 86%, theo dõi bởi Duolingo, thu thập 79%.

Ở đầu kia của thang đo, Trình tạo hình ảnh AI, Stable Diffusion, không thu thập bất kỳ dữ liệu nào. Theo nhãn quyền riêng tư trên danh sách Apple App Store.

Mặc dù đúng là tất cả trí tuệ nhân tạo các mô hình đòi hỏi phải đào tạo một lượng lớn dữ liệu, quá trình đào tạo này diễn ra trước khi phát triển các ứng dụng cụ thể. Trong hầu hết các trường hợp, người tạo ứng dụng không sở hữu các mô hình AI mà họ sử dụng; do đó, việc thu thập dữ liệu người dùng liên quan đến chức năng của chính ứng dụng. Điều này có thể giải thích tại sao một số ứng dụng mà chúng tôi đã điều tra không có thông tin trong bảng trên.

Điều hướng các điều khoản và điều kiện đằng sau các công cụ AI

Bây giờ, chúng ta hãy xem xét tài liệu pháp lý đằng sau các công cụ AI khác nhau để tìm ra chúng dễ hay khó đọc. Điều này dựa trên bài kiểm tra trình độ đọc hiểu Flesch-Kincaid.

Hệ thống này xếp các văn bản vào trình độ đọc hiểu của trường học Hoa Kỳ (từ lớp năm đến lớp 12), sau đó là Cao đẳng, Sau đại học và Chuyên nghiệp. Văn bản trình độ lớp sáu được định nghĩa là "tiếng Anh giao tiếp dành cho người tiêu dùng", trong khi văn bản được xếp hạng chuyên nghiệp được mô tả là "cực kỳ khó đọc".

Điểm dễ đọc càng thấp thì văn bản càng khó đọc.

Tiêu đề cột có nút có thể sắp xếp được.
Clipchamp giờ 3 16 phút 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing giờ 2 20 phút 35.4 🤯🤯🤯🤯🤯
veed.io giờ 2 15 phút 37.9 🤯🤯🤯🤯🤯
Facetune giờ 2 4 phút 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI giờ 1 47 phút 31.4 🤯🤯🤯🤯🤯🤯
Rái cá giờ 1 11 phút 32.4 🤯🤯🤯🤯🤯🤯
Jatpe giờ 1 9 phút 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
gamma giờ 1 6 phút 30.9 🤯🤯🤯🤯🤯🤯
phát biểu giờ 1 6 phút 35.0 🤯🤯🤯🤯🤯🤯
Runway giờ 1 2 phút 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

Năm 2023, công ty bảo hiểm kinh doanh của Anh Superscript đã thăm dò ý kiến ​​của chủ sở hữu 500 doanh nghiệp vừa và nhỏ (SME) để tìm hiểu điều gì chiếm nhiều thời gian nhất của họ.

Điều đáng chú ý là "ngủ đủ giấc" - điều rất quan trọng cho sức khỏe thể chất, tinh thần và chức năng nhận thức - xếp thứ ba, sau "làm việc nhiều giờ" và "xử lý tờ khai thuế".

Một phần ba số người được hỏi cảm thấy rằng không thể thực hiện tất cả các công việc hành chính của họ trong giờ làm việc, và nói rằng họ cần thêm bốn giờ mỗi ngày để hoàn thành tất cả.

Điều này cho thấy việc điều hành một doanh nghiệp vừa và nhỏ có thể gây ra hậu quả nghiêm trọng như thế nào và thời gian cần thiết để đọc các điều khoản và điều kiện đằng sau những công cụ mà họ dựa vào là không dễ dàng để có được.

Trong bối cảnh này, thời gian đọc 40 phút của Điều khoản và Điều kiện dành cho các công cụ phiên âm như Otter, Trint và Descript có hậu quả rất lớn. 

đó là giả sử rằng có thể hiểu được các điều khoản và điều kiện khó đọc nhất. Đây là lý do tại sao chúng tôi tìm kiếm sự chuyên môn của một chuyên gia pháp lý.

Josilda Ndreaj, một chuyên gia pháp lý và luật sư được cấp phép, đã giải quyết các vấn đề pháp lý phức tạp thay mặt cho các khách hàng thuộc Fortune 500 và cung cấp tư vấn cho nhiều tập đoàn khác nhau.

Gần đây hơn, với tư cách là một nhà tư vấn độc lập, cô ấy đã tập trung vào luật sở hữu trí tuệ tại giao điểm của công nghệ blockchain và trí tuệ nhân tạo.

Josilda Ndreaj (LLM) là chuyên gia pháp lý và luật sư được cấp phép có chuyên môn về luật Sở hữu trí tuệ (IP).

Sự nghiệp tư vấn pháp lý của cô bắt đầu tại một công ty luật quốc tế uy tín, phục vụ cho các khách hàng Fortune 500. Tại đây, Josilda giải quyết các vấn đề pháp lý phức tạp và tư vấn cho nhiều tập đoàn khác nhau.

Được thúc đẩy bởi sự quan tâm đến đổi mới, sáng tạo và các công nghệ mới nổi, Josilda sau đó đã mạo hiểm tham gia vào lĩnh vực tư vấn độc lập và tập trung vào luật Sở hữu trí tuệ, bằng cách đề cập đến mối liên hệ giữa công nghệ blockchain và trí tuệ nhân tạo.

Josilda có hai bằng Thạc sĩ Luật; một bằng chuyên ngành Luật dân sự và thương mại của Đại học Tirana, và bằng còn lại tập trung vào luật sở hữu trí tuệ của Đại học Kinh tế và Luật Trung Nam.

Như vậy, Josilda đã có vị trí độc đáo để xem xét một số tài liệu pháp lý của các công cụ AI này, trích ra những điểm chính để giúp ích cho những người không có hai bằng Thạc sĩ Luật.

Tóm tắt của cô được trình bày dưới đây:

Gemini (trước đây là Bard) không có nghĩa vụ phải khai báo nguồn đào tạo, vì vậy chúng tôi không thể kiểm tra xem nó có được đào tạo trên các tài liệu có bản quyền hay không. Gemini không bị loại trừ khỏi trách nhiệm pháp lý của hành vi vi phạm đó; nếu chủ sở hữu bản quyền đưa ra cáo buộc, Gemini phải chịu một số trách nhiệm. Nhưng điều quan trọng cần lưu ý là Gemini được đào tạo dựa trên những gì người dùng cung cấp cho nó. Đối với điều này, Gemini yêu cầu người dùng phải có giấy phép. Nếu người dùng đồng ý cấp giấy phép đó cho Gemini nhưng họ (người dùng) không thực sự sở hữu bản quyền thì trách nhiệm sẽ chuyển sang người dùng.

Người dùng giữ quyền sở hữu các thông tin đầu vào và lời nhắc của họ, nhưng quyền sở hữu đầu ra phức tạp hơn. Gemini không nêu rõ điều này trong Điều khoản của mình. Nhiều luật không công nhận quyền sở hữu trí tuệ của máy móc. Tuy nhiên, việc lập luận rằng đầu ra là "do con người tạo ra" là điều đáng ngờ, ngay cả khi người dùng sở hữu đầu vào.

Độ chính xác và độ tin cậy

Luôn luôn thận trọng khi dựa vào Song Tử để có thông tin chính xác. Điều khoản dịch vụ nêu rõ rằng độ chính xác không được tự động cho là bởi người dùng. Do đó, bạn nên kiểm tra thực tế tất cả nội dung được tạo từ Gemini. 

Chủ doanh nghiệp không bao giờ nên công bố thông tin đầu ra từ Gemini mà không tham chiếu chéo, xem xét các bản cập nhật và kiểm tra với các chuyên gia về tính chính xác. Nếu không, họ sẽ có nguy cơ công bố thông tin sai lệch, có thể gây ra hậu quả về mặt danh tiếng hoặc pháp lý.

Bảo mật và bí mật

Google (chủ sở hữu của Gemini) không cung cấp thông tin nào trong Chính sách quyền riêng tư về cách Google xử lý dữ liệu bí mật.

Sử dụng

Google không nêu gì trong Điều khoản dịch vụ của mình về việc liệu nội dung do Gemini tạo ra có thể được sử dụng cho mục đích thương mại hay không. Nó giải thích hạn chế đối với những thứ như quyền sở hữu trí tuệ nhưng không có thông tin cụ thể nào về nội dung do AI tạo ra.

Hiện tại, không có luật nào yêu cầu ChatGPT phải công khai tuyên bố mô hình của mình được đào tạo dựa trên điều gì. Vì vậy, vì ChatGPT không tiết lộ nguồn của mình, chúng tôi không thể biết liệu ChatGPT có phân phối hoặc xử lý nội dung được bảo vệ bởi luật bản quyền hay không. Nếu ai đó xác định nội dung có bản quyền từ ChatGPT, họ có thể đưa ra yêu cầu để xóa nội dung đó.

Điều khoản của ChatGPT nêu rõ rằng thông tin đầu vào của người dùng, ngay cả khi có bản quyền, được sử dụng để cải thiện dịch vụ và đào tạo mô hình; và người dùng không thể chọn không tham gia điều này. Điều khoản của ChatGPT nêu rõ rằng người dùng sở hữu tất cả nội dung đầu vào và đầu ra (nếu nội dung đầu vào đã được sử dụng hợp pháp), nhưng điều đó không đảm bảo rằng người dùng sở hữu bản quyền đối với nội dung đầu vào và đầu ra đó. Ngoài ra, người dùng không thể coi bất cứ thứ gì từ ChatGPT là 'do con người tạo ra'.

Độ chính xác và độ tin cậy

Người dùng nên xác minh tất cả thông tin từ ChatGPT. Đó là bởi vì ChatGPT không chịu trách nhiệm cung cấp thông tin chính xác, nội dung cập nhật. Theo phần Tuyên bố từ chối bảo hành, người dùng chịu mọi rủi ro về độ chính xác, chất lượng, độ tin cậy, bảo mật và tính đầy đủ. Do đó, hãy luôn xác minh thông tin từ ChatGPT; tham chiếu chéo, xem xét các bản cập nhật và kiểm tra với các chuyên gia về tính chính xác. Chủ doanh nghiệp có thể phải đối mặt với hậu quả pháp lý hoặc danh tiếng nếu họ không xác minh nội dung ChatGPT về tính chính xác trước khi xuất bản. 

Bảo mật và bí mật

ChatGPT thu thập thông tin từ các đầu vào — bao gồm thông tin cá nhân — để có khả năng đào tạo các mô hình của mình (theo Chính sách bảo mật). Người dùng có thể chọn không tham gia. Tình hình sẽ thay đổi nếu dữ liệu được gửi qua kết nối API (ChatGPT Enterprise, Team, v.v.); đó là vì ChatGPT không sử dụng thông tin đầu vào từ khách hàng doanh nghiệp để đào tạo mô hình. ChatGPT có các biện pháp bảo mật tại chỗ, nhưng không đề cập rõ ràng đến trách nhiệm đối với vi phạm bảo mật. Tất cả phụ thuộc vào luật pháp khu vực. 

Sử dụng

Người dùng ChatGPT sở hữu nội dung đầu vào và đầu ra của họ; do đó, người dùng phải đảm bảo nội dung không vi phạm bất kỳ luật nào. Người dùng không thể khẳng định nội dung đó là do con người tạo ra, nhưng bạn cũng không cần phải nói rằng nó được tạo ra bởi AI. Miễn là người dùng tuân thủ luật pháp khu vực và Điều khoản sử dụng, nội dung ChatGPT có thể được sử dụng cho mục đích thương mại, trên phương tiện truyền thông xã hội, cho quảng cáo trả phí và các kênh khác. Bạn nên kiểm tra thực tế, tham khảo và tuân thủ luật pháp trước khi xuất bản nội dung từ ChatGPT. 

Chính sách bảo mật cũng như Điều khoản đều không nêu rõ liệu công cụ AI của DeepSeek có được đào tạo trên các tài liệu có bản quyền hay không. Hơn nữa, chúng cũng không đảm bảo rằng các đầu ra sẽ không vi phạm bản quyền của bất kỳ ai. Điều khoản sử dụng của DeepSeek nêu rõ rằng người dùng giữ lại quyền đối với dữ liệu đầu vào của họ (lời nhắc), nhưng điều này không nhất thiết ngụ ý rằng chúng được bảo vệ bản quyền ngay từ đầu, do đó người dùng nên thực hiện các bước để đảm bảo rằng những gì họ sử dụng làm lời nhắc không phải là tài sản trí tuệ của người khác.

Các Điều khoản cũng nêu rõ rằng người dùng chịu trách nhiệm cho tất cả các đầu vào và đầu ra tương ứng, vì vậy, với suy nghĩ đó, người dùng nên tự mình xác minh những điều này bằng cách tìm kiếm tư vấn pháp lý và/hoặc sử dụng cơ sở dữ liệu bản quyền. Ví dụ, Văn phòng Bản quyền Hoa Kỳ Danh mục Công cộng cho phép người dùng tìm kiếm các tác phẩm đã đăng ký tại Hoa Kỳ, trong khi Tìm kiếm hình ảnh ngược của Google giúp kiểm tra xem hình ảnh đã được xuất bản trước đó hay có bản quyền hay chưa.

Độ chính xác và độ tin cậy

Điều khoản sử dụng của DeepSeek nêu rõ rằng các kết quả đầu ra được tạo ra bởi AI và do đó có thể chứa lỗi và/hoặc thiếu sót. cụ thể đề cập đến các vấn đề y tế, pháp lý và tài chính mà người dùng có thể hỏi DeepSeek về, và cách mà kết quả đầu ra của DeepSeek không cấu thành lời khuyên. Nhưng nói rộng hơn, nó nói như vậy về 'vấn đề chuyên môn', có thể là bất cứ thứ gì — từ tiếp thị và nghiên cứu đến công nghệ và giáo dục và hơn thế nữa — và kết quả đầu ra không 'đại diện cho ý kiến ​​của bất kì lĩnh vực chuyên môn.' Do đó, người dùng nên tự mình xác minh tính chính xác của tất cả các kết quả đầu ra của DeepSeek.

Bảo mật và bí mật

Chính sách bảo mật của DeepSeek giải thích rằng dữ liệu đầu vào của người dùng được xử lý để tạo ra đầu ra, nhưng cũng để cải thiện dịch vụ của DeepSeek. Điêu nay bao gôm 'đào tạo và cải thiện công nghệ của [họ]'. Do đó, người dùng nên thận trọng khi nhập thông tin nhạy cảm và mặc dù DeepSeek có 'hợp lý về mặt thương mại'các biện pháp được áp dụng để bảo vệ dữ liệu và thông tin được sử dụng làm đầu vào, nó không cung cấp bất kỳ đảm bảo tuyệt đối nào. Các điều khoản của DeepSeek nêu rõ rằng họ không công bố đầu vào hoặc đầu ra trên các diễn đàn công cộng, nhưng một số có thể được chia sẻ với bên thứ ba.

Sử dụng

Bất kỳ nội dung nào mà người dùng tạo ra thông qua DeepSeek đều có thể được sử dụng cho mục đích thương mại, nhưng vì có những vùng xám xung quanh đạo văn và độ chính xác, người dùng nên thực hiện các bước để xác minh nội dung trước khi sử dụng theo cách này. Điều khoản dịch vụ của DeepSeek không đề cập đến bất kỳ giới hạn nào liên quan đến nơi trên thế giới mà người dùng có thể xuất bản nội dung này, nhưng chúng nêu rõ rằng người dùng phải tuyên bố nó là do AI tạo ra 'để cảnh báo công chúng về bản chất tổng hợp của nội dung'.

Canva không có nghĩa vụ pháp lý phải tiết lộ nguồn dữ liệu đào tạo của mình. Do đó, chúng tôi không biết liệu tài liệu có bản quyền có được sử dụng hay không. Người dùng sở hữu tất cả nội dung đầu vào và đầu ra (không phải Canva), nhưng Canva có thể sử dụng nội dung đó để cải thiện dịch vụ của mình. 

Độ chính xác và độ tin cậy

Gấu Canva không chịu trách nhiệm về độ chính xác của nội dung. Người dùng nên luôn luôn xác minh sự thật. 

Bảo mật và bí mật

Canva sử dụng nội dung đầu vào để đào tạo mô hình của nó. Đó là trách nhiệm của người dùng là tránh sử dụng thông tin bí mật hoặc thông tin cá nhân để nhập liệu. Canva cố gắng lọc các dữ liệu đầu vào như vậy để đào tạo mô hình, nhưng không có gì đảm bảo. Công cụ AI của Canva không chịu trách nhiệm về các vấn đề bảo mật do người dùng gây ra.

Sử dụng

Người dùng Canva có thể sử dụng nội dung được tạo cho mục đích thương mại. Có điều kiện, mặc dù, giống như không xuất bản nội dung sai lệch. Công ty có một danh sách các mặt hàng bị cấm, trong phần có tiêu đề “Hãy là một con người tốt”.

Tương tự như ChatGPT, DALL-E không khai báo nguồn cho mô hình đào tạo của mình. Tuy nhiên, nếu bạn tìm thấy nội dung có bản quyền, bạn có thể nộp đơn yêu cầu xóa bỏ. Thật khó để kiểm tra xem DALL-E có vi phạm bản quyền hay không vì không có luật nào yêu cầu DALL-E phải tiết lộ nguồn dữ liệu của mình. Đầu vào của người dùng, theo Điều khoản, có thể được sử dụng để đào tạo mô hình DALL-E — ngay cả khi đó là nội dung có bản quyền. Người dùng có thể chọn không tham gia.  

DALL-E người dùng sở hữu nội dung đầu vào và đầu ra (không phải DALL-E), nhưng điều đó không có nghĩa là người dùng có bản quyền đối với nội dung đã nói. Ngoài ra, người dùng không thể khẳng định nội dung DALL-E là do con người tạo ra.

Độ chính xác và độ tin cậy

Gấu DALL-E không chịu trách nhiệm về nội dung không chính xác. Các Điều khoản của nó chuyển giao mọi trách nhiệm cho người dùng. Các trách nhiệm này bao gồm độ tin cậy, độ chính xác, chất lượng, bảo mật và tính đầy đủ của nội dung. Vì vậy, trước khi xuất bản, người dùng nên luôn tham khảo chéo, xem xét để cập nhật, xác minh sự thật và kiểm tra với các chuyên gia, vì việc công bố thông tin sai lệch có thể dẫn đến hậu quả về mặt danh tiếng hoặc pháp lý. 

Bảo mật và bí mật

Chính sách bảo mật và Điều khoản và điều kiện của DALL-E không bao giờ đề cập rõ ràng đến trách nhiệm trong trường hợp vi phạm bảo mật. Tuy nhiên, DALL-E có các biện pháp bảo mật. Ai chịu trách nhiệm trong trường hợp bị hack tùy thuộc vào luật pháp khu vực.

DALL-E thu thập thông tin đầu vào của người dùng để đào tạo mô hình, thậm chí thông tin cá nhân, nhưng bạn có thể chọn không tham gia. Tuy nhiên, với API, DALL-E xử lý dữ liệu đầu vào theo cách khác; nó không sử dụng dữ liệu từ người dùng doanh nghiệp để đào tạo các mô hình của nó

Sử dụng

Sản phẩm người dùng sở hữu nội dung đầu vào và đầu ra DALL-E; họ cũng phải đảm bảo rằng nội dung không vi phạm bất kỳ luật nào hoặc Điều khoản DALL-E. Bạn không thể khẳng định nội dung từ DALL-E là do con người tạo ranhưng bạn cũng không cần phải nói rằng nó được tạo ra bởi AI. 

Bạn có thể sử dụng DALL-E cho mục đích thương mại, miễn là bạn tuân thủ mọi luật lệ và Điều khoản DALL-E. Quy định có thể thay đổi, nhưng tại thời điểm viết bài, người dùng được phép đăng nội dung DALL-E trên phương tiện truyền thông xã hội, trong quảng cáo và trên các kênh khác. Người dùng nên luôn đưa ra các tham chiếu phù hợp và kiểm tra tính chính xác của thông tin để tránh vi phạm bất kỳ luật nào.

Bing không có nghĩa vụ chia sẻ các nguồn đào tạo dữ liệu của mình, khiến việc xác định liệu Bing AI có vô tình sử dụng nội dung có bản quyền hay không trở nên rất khó khăn. Mặc dù khó xác định, người dùng có thể khiếu nại về nội dung có bản quyền. Thỏa thuận dịch vụ của Microsoft nêu rõ Bing AI lấy thông tin đầu vào và đầu ra của người dùng để cải thiện mô hình của mình, nhưng không có bất kỳ biện pháp chính thức nào để ngăn chặn hành vi trộm cắp sở hữu trí tuệ.

Sản phẩm Thỏa thuận dịch vụ nêu rõ người dùng cấp cho Microsoft giấy phép sở hữu trí tuệ miễn phí bản quyền và toàn cầu để sử dụng nội dung của bạn. Hơn nữa, Bing/Microsoft lấy thông tin đầu vào của người dùng để đào tạo các mô hình AI.

Độ chính xác và độ tin cậy

Microsoft không đưa ra bất kỳ đảm bảo nào về tính chính xác hoặc tính kịp thời của nội dung từ các dịch vụ AI của Microsoft. Do đó, bạn nên kiểm tra thực tế mọi thứ từ các công cụ AI của Microsoft, đặc biệt nếu bạn là chủ doanh nghiệp muốn tránh mọi hậu quả về mặt pháp lý và danh tiếng. 

Bảo mật và bí mật

Các công cụ AI của Microsoft (bao gồm Bing AI) sử dụng dữ liệu người dùng cá nhân và bí mật để đào tạo các mô hình của mìnhThỏa thuận dịch vụ của công ty không bao gồm nội dung do AI tạo ra; thay vào đó, công ty cố gắng chuyển toàn bộ trách nhiệm về nội dung AI cho người dùng. Microsoft cũng không chịu trách nhiệm về các hoạt động bảo mật và quyền riêng tư của khách hàng. Tóm lại, nếu dữ liệu của bạn bị xâm phạm khi sử dụng Bing AI, thì đó là vấn đề của bạn, không phải của Microsoft.  

Sử dụng

Microsoft không tuyên bố quyền sở hữu nội dung của người dùng, nhưng không quy định cụ thể về nội dung do AI tạo ra, trong đó quyền sở hữu không chắc chắn. Thỏa thuận dịch vụ cho phép mọi người sử dụng nội dung cho mục đích thương mại, với một số điều khoản quan trọng: bạn phải chấp nhận rằng nội dung do AI tạo ra thiếu tính sáng tạo của con người, do đó không thể được coi là sở hữu trí tuệ; bạn cũng không được xâm phạm quyền sở hữu trí tuệ của người khác. Tóm lại, bạn không thể sử dụng sở hữu trí tuệ từ người khác, nhưng bất kỳ thứ gì bạn tạo ra với Bing có thể không phải là sở hữu trí tuệ của riêng bạn.

Quillbot có không có nghĩa vụ tiết lộ nguồn sử dụng để đào tạo mô hình. Tuy nhiên, công ty này cố gắng điều chỉnh một tình huống độc đáo một cách thú vị: nếu nguồn đào tạo mô hình là đầu ra của AI thì sao? Quillbot về cơ bản cố gắng giảm thiểu khả năng đầu ra có bản quyền, nhưng tuyên bố rằng vẫn có khả năng đầu ra có bản quyền nếu người dùng nhập nội dung có bản quyền. Để làm cho mọi thứ trở nên khó hiểu hơn, Quillbot cố gắng bao quát tất cả các lĩnh vực bằng cách nói rằng người dùng cấp cho Quillbot một giấy phép không giới hạn, có thể cấp phép phụ trong khi cũng tuyên bố rằng người dùng sở hữu tất cả các đầu ra của họ. 

Độ chính xác và độ tin cậy

Gấu Quillbot không chịu trách nhiệm về tính chính xác hoặc độ tin cậy. Người dùng nên hết sức thận trọng và xác minh mọi thông tin từ Quillbot. 

Bảo mật và bí mật

Quillbot có các biện pháp bảo vệ quyền riêng tư của người dùng, nhưng nó vẫn có thể xử lý dữ liệu cá nhân. Có những biện pháp bảo vệ đặc biệt cho quyền riêng tư của trẻ em. Trách nhiệm đối với việc mất dữ liệu do hack được xử lý theo từng trường hợp cụ thể. Quillbot nêu rõ người dùng nên thực hiện các bước để ngăn chặn dữ liệu cá nhân của họ bị hack và Quillbot có các yếu tố bảo vệ dữ liệu tại chỗ. 

Sử dụng

Người dùng Quillbot có thể xuất bản nội dung được tạo ra cho mục đích thương mại, nhưng bạn có thể cần tuân theo một số quy tắc, chẳng hạn như không xuất bản nội dung có hại hoặc gây hiểu lầm. Quillbot Các điều khoản đừng nói rằng bạn cần phải tuyên bố nội dung của nó là do AI tạo ra. Tóm lại, người dùng có thể xuất bản nội dung được tạo bởi Quillbot miễn là nó không vi phạm bất kỳ luật pháp hoặc quyền nào. 

Pixlr không tiết lộ nguồn đào tạo mô hình AI của mình vì họ không có nghĩa vụ pháp lý phải làm như vậy. Điều khoản của Pixlr nêu rõ người dùng sở hữu nội dung, nhưng người dùng cũng cấp giấy phép cho Pixlr sử dụng nội dung. Đây là nỗ lực nhằm giảm thiểu việc sử dụng nội dung có bản quyền. 

Độ chính xác và độ tin cậy

Pixlr không chịu trách nhiệm về sự không chính xác trong nội dung do AI tạo ra. Người dùng nên cẩn thận kiểm tra mọi thông tin từ Pixlr. 

Bảo mật và bí mật

Pixlr lấy dữ liệu đầu vào của người dùng để đào tạo mô hình AI. Nó chuyển gánh nặng cho người dùng phải cẩn thận khi nhập dữ liệu thông tin cá nhân hoặc bí mật. Pixlr từ bỏ trách nhiệm lọc một số thông tin từ dữ liệu đào tạo của mình, mặc dù nó sử dụng một số bộ lọc để chặn thông tin cá nhân hoặc thông tin bí mật. Pixlr tuyên bố không chịu trách nhiệm về các vấn đề bảo mật do hành động của người dùng gây ra

Sử dụng

Người dùng có thể xuất bản nội dung do AI tạo ra thông qua Pixlr cho mục đích thương mại (mặc dù có một số điều kiện được áp dụng). Các điều khoản không yêu cầu bạn phải nêu bất cứ điều gì là do AI tạo ra. Tuy nhiên, người dùng vẫn phải chịu trách nhiệm nếu vi phạm quyền hoặc luật pháp. 

midjourney người dùng cấp cho công ty quyền đối với tất cả tài sản được tạo ra thông qua công ty, nhưng người dùng cũng sở hữu tất cả tài sản. Có những trường hợp ngoại lệ, như bạn không thể yêu cầu quyền sở hữu nếu bạn vừa nâng cấp một hình ảnh từ một người sáng tạo ban đầu.

Độ chính xác và độ tin cậy

Midjourney không chịu trách nhiệm về độ tin cậy và độ chính xác của nội dung của nó. Do đó, người dùng nên hết sức thận trọng để xác minh sự thật và kiểm tra độ tin cậy. 

Bảo mật và bí mật

Midjourney đào tạo mô hình của mình với các đầu vào của người dùng, ngay cả khi nó bao gồm dữ liệu cá nhân hoặc bí mật. Midjourney tuyên bố người dùng nên cẩn thận với dữ liệu nhạy cảm, vì vậy đó không phải là vấn đề của họ. Công ty cố gắng lọc ra một số thông tin nhất định để đào tạo mô hình, nhưng điều đó không bắt buộc. Midjourney tuyên bố không chịu trách nhiệm về các vấn đề bảo mật có thể xảy ra do hành động của người dùng. 

Sử dụng

Người dùng Midjourney có thể xuất bản nội dung được tạo ra cho mục đích thương mại. Một số điều kiện, như yêu cầu đăng ký phiên bản Pro nếu công ty kiếm được hơn 1 triệu đô la mỗi năm, áp dụng. Tại thời điểm viết bài, người dùng không phải tuyên bố bất kỳ điều gì là do AI tạo ra từ Midjourney, mặc dù luật pháp đang được đưa ra để thay đổi điều này. Người dùng thường có thể sử dụng bất kỳ nội dung nào của Modjourney nếu nó không vi phạm bất kỳ quyền hoặc luật nào. 

Clipchamp là sản phẩm của Microsoft, do đó, nó tuyên bố không có nghĩa vụ chia sẻ nguồn dữ liệu để đào tạo mô hình. Do đó, rất khó để biết liệu công cụ AI có vô tình sử dụng dữ liệu có bản quyền hay không. Ai đó phải xác định hành vi vi phạm bản quyền để đưa ra khiếu nại, điều này không có khả năng xảy ra. Thỏa thuận dịch vụ của Microsoft nêu rõ nó có thể sử dụng đầu vào và đầu ra của người dùng để cải thiện dịch vụvà Microsoft không quản lý các vấn đề sở hữu trí tuệ. Ngoài ra, người dùng cấp giấy phép sở hữu trí tuệ miễn phí bản quyền trên toàn thế giới cho Microsoft

Độ chính xác và độ tin cậy

Clipchamp và Microsoft không đảm bảo bất cứ điều gì về tính chính xác hoặc tính kịp thời của các công cụ AI của mình, vì vậy người dùng nên xác minh mọi sự kiện trước khi công bố. Điều này đặc biệt đúng đối với những chủ doanh nghiệp có thể phải đối mặt với hậu quả pháp lý và danh tiếng. 

Bảo mật và bí mật

Clipchamp và Microsoft sử dụng dữ liệu cá nhân và bí mật để đào tạo người mẫu. Microsoft cố gắng chuyển giao trách nhiệm về mọi vấn đề nội dung cho người dùng. Điều tương tự cũng xảy ra với tin tặc và vi phạm an ninh; người dùng phải chịu trách nhiệm nếu có bất cứ điều gì xảy ra. 

Sử dụng

Clipchamp và Microsoft tránh xa việc quản lý nội dung do AI tạo ra, không bao giờ tuyên bố rằng Microsoft sở hữu nội dung. Về mặt kỹ thuật, Microsoft cho biết người dùng sở hữu nhưng không có quyền sở hữu trí tuệ. Người dùng có thể xuất bản nội dung Clipchamp cho mục đích thương mại với hai điều kiện: bạn không được vi phạm quyền sở hữu trí tuệ hoặc tuyên bố bạn có quyền sở hữu trí tuệ đối với nội dung đã tạo. 

Cái nhìn Các điều khoản nêu rõ công ty không có nghĩa vụ chia sẻ nguồn dữ liệu đào tạo, vì vậy họ không làm vậy. Người dùng chịu mọi rủi ro khi sử dụng nội dung do Looka tạo ra. 

Độ chính xác và độ tin cậy

Looka không chịu trách nhiệm về tính chính xác và độ tin cậy của kết quả từ các công cụ AI của mình. Người dùng nên xác minh tất cả các sự kiện và kiểm tra độ tin cậy. 

Bảo mật và bí mật

Looka sử dụng dữ liệu đầu vào — thậm chí có thể là dữ liệu cá nhân và bí mật — để đào tạo mô hình của mình, vì vậy người dùng có trách nhiệm không sử dụng loại dữ liệu này khi nhập dữ liệu. Looka cố gắng lọc dữ liệu như vậy, nhưng họ tuyên bố rằng họ không cần phải làm vậy. Ngoài ra, mọi vấn đề bảo mật đều do người dùng chịu trách nhiệm. 

Sử dụng

Người dùng Looka có thể sử dụng nội dung do AI tạo ra cho mục đích thương mại, nhưng họ có thể cần tuân theo các điều kiện hoặc trả phí. Người dùng không cần phải gắn nhãn nội dung do họ tạo ra là do AI tạo ra. Người dùng nên tránh xuất bản nội dung do họ tạo ra vi phạm quyền hoặc luật pháp. 

Không thể biết liệu Speechify đào tạo mô hình của nó trên các tài liệu có bản quyền. Chúng tôi chỉ đơn giản là không biết. Điều khoản của Speechify khuyến nghị không sử dụng tài liệu có bản quyền cho đầu vào, điều này cho thấy một số đầu ra có thể có dữ liệu có bản quyền. Speechify tuyên bố không chịu trách nhiệm cho việc này

Độ chính xác và độ tin cậy

Speechify, theo như nó Các điều khoản, không chịu trách nhiệm về tính chính xác của kết quả đầu ra. Người dùng nên luôn kiểm tra tính kịp thời, độ tin cậy và độ chính xác với Speechify. 

Bảo mật và bí mật

phát biểu chuyển giao toàn bộ trách nhiệm cho người dùng khi nhập dữ liệu nhạy cảm hoặc dữ liệu cá nhân. Công cụ này sử dụng dữ liệu đầu vào để đào tạo mô hình, vì vậy người dùng nên cẩn thận. Speechify không nhất thiết phải lọc dữ liệu nhạy cảm hoặc dữ liệu cá nhân, nhưng nó cố gắng làm như vậy bằng một số bộ lọc. Mọi trách nhiệm về các vấn đề bảo mật đều được chuyển cho người dùng. 

Sử dụng

Người dùng Speechify có thể sử dụng đầu ra cho mục đích thương mại, với một số điều kiện như phải đăng ký hoặc xin cấp phép. Người dùng không cần phải tuyên bố rằng nội dung Speechify được tạo ra bởi AITuy nhiên, người dùng Speechify không bao giờ được vi phạm quyền hoặc luật pháp khi xuất bản sản phẩm của Speechify. 

Con chim Kapwing Các điều khoản đặt tất cả các trách nhiệm về sở hữu trí tuệ và độ chính xác lên người dùng. Tất cả người dùng cấp cho Kapwing giấy phép không độc quyền, nhưng người dùng giữ quyền sở hữu nội dung. Kapwing không tiết lộ gì về việc liệu nó có sử dụng dữ liệu đầu vào để đào tạo mô hình hay không. 

Độ chính xác và độ tin cậy

Kapwing đặt tất cả trách nhiệm về độ chính xác lên người dùng, đặc biệt là bất kỳ hậu quả pháp lý và danh tiếng nào.

Bảo mật và bí mật

Người dùng Kapwing chịu mọi rủi ro khi lựa chọn nhập thông tin bí mật vào công cụ AI của mình. Kapwing cũng không bảo hành hoặc chịu trách nhiệm về tính bảo mật của dịch vụ.

Sử dụng

Bạn có thể xuất bản nội dung Kapwing cho mục đích thương mại, nhưng Kapwing khuyên người dùng nên thận trọng. Các điều khoản của họ không nói rõ người dùng có phải khai báo đầu ra từ Kapwing là do AI tạo ra hay không.

Otter.ai tuyên bố rằng họ không cho phép các tài liệu vi phạm bản quyền xuất hiện trong các dịch vụ của mình, nhưng rất khó để xác minh tuyên bố này. Người dùng giữ quyền sở hữu và bản quyền của các đầu vào và đăng bài trong Otter.ai, nhưng Otter.ai nói người sử dụng có trách nhiệm cho không nhập nội dung đã có bản quyền trước đó. Otter.ai cũng có thể sử dụng đầu vào cho máy học.

Độ chính xác và độ tin cậy

Otter.ai không chịu trách nhiệm về tính chính xác và độ tin cậy, vì vậy người dùng nên luôn xác minh nội dung. Sử dụng thông tin sai lệch hoặc không chính xác có thể gây ra các vấn đề pháp lý hoặc uy tín cho người dùng. 

Bảo mật và bí mật

Mọi rủi ro về việc tiết lộ thông tin bí mật trên Otter.ai thuộc về người dùng. 

Sử dụng

Người dùng có thể xuất bản với mục đích thương mại vì người dùng là chủ sở hữu của nội dung từ Otter.ai. Điều đó nói rằng, nội dung do AI tạo ra không có quy tắc sở hữu rõ ràng. Otter.ai cũng tuyên bố ghi chú đã chép lại của nó có thể được tìm kiếm và chia sẻ.

PhotoRoom có ​​thể lấy thông tin đầu vào và đầu ra của người dùng để đào tạo mô hình, nhưng thông tin về việc dịch vụ có thực hiện điều đó hay không còn hạn chế. Điều khoản của PhotoRoom nhắc nhở người dùng tránh đưa nội dung có bản quyền vào. Người sử dụng chịu mọi trách nhiệm cho việc này. 

Độ chính xác và độ tin cậy

phòng photo không chịu trách nhiệm về tính chính xác hoặc độ tin cậy của nội dung do AI tạo ra. Người dùng nên tự kiểm tra để xác minh điều này.

Bảo mật và bí mật

PhotoRoom sử dụng dữ liệu đầu vào để đào tạo mô hình. Người dùng chịu trách nhiệm khi chèn thông tin bí mật or thông tin cá nhân. Dịch vụ cố gắng lọc các loại đầu vào này nhưng tuyên bố không yêu cầu phải làm như vậy. Người dùng chịu mọi trách nhiệm về các vấn đề bảo mật. 

Sử dụng

Nội dung PhotoRoom có thể được sử dụng cho mục đích thương mại, nhưng một số điều kiện có thể áp dụng, như đăng ký thuê bao. Điều khoản nêu rõ bạn không phải đánh dấu nội dung là do AI tạo ra. Người dùng có thể thấy những hậu quả khác nếu họ vi phạm quyền hoặc luật pháp. 

Từ chối trách nhiệm

Thông tin này chỉ dành cho mục đích thông tin chung và không nên được coi là tư vấn pháp lý. Ecommerce Platforms không chịu trách nhiệm về lỗi hoặc thiếu sót. Hãy tham khảo ý kiến ​​của chuyên gia pháp lý phù hợp để được tư vấn và hướng dẫn phù hợp với nhu cầu và hoàn cảnh cụ thể của bạn.

Kết luận

Sự phổ biến của AI khiến chúng ta ngày càng có khả năng sử dụng các công cụ và ứng dụng dựa trên công nghệ này — tuy nhiên, nhiều người trong chúng ta không có đủ thời gian để đọc các điều khoản và điều kiện của chúng. 

Năm 2017, mạng lưới dịch vụ chuyên nghiệp Deloitte thấy rằng 91% người tiêu dùng “tự nguyện chấp nhận các điều khoản và điều kiện pháp lý mà không cần đọc chúng” — tăng lên 97% ở độ tuổi từ 18 đến 34.

Với số lượng Điều khoản và Điều kiện AI mà chúng tôi đánh giá có điểm dễ đọc thấp, có vẻ như tính khó hiểu của thuật ngữ pháp lý trong các tài liệu này khiến người dùng thậm chí không muốn cố gắng hiểu chúng. 

Chúng tôi đã làm việc với một chuyên gia pháp lý để phân tích các tài liệu giúp chúng tôi, nhưng liệu điều này có cần thiết hay không vẫn chưa rõ ràng.

Chúng tôi hy vọng rằng nghiên cứu này — bao gồm xếp hạng khả năng đọc và chuyên môn của Josilda Ndreaj về các điều khoản và điều kiện cần lưu ý — sẽ giúp bạn lựa chọn ứng dụng và công cụ AI phù hợp. 

Phương pháp và nguồn

Chúng tôi đã tiến hành nghiên cứu như thế nào

Bắt đầu với danh sách hạt giống gồm khoảng 90 công cụ và ứng dụng AI, trước tiên chúng tôi thu thập tài liệu pháp lý của từng công cụ, từ các điều khoản và điều kiện đến chính sách bảo mật. Sau đó, chúng tôi ghi lại độ dài từ của các tài liệu này và tính điểm khả năng đọc của chúng bằng hệ thống chấm điểm của Flesch-Kincaid. Tiếp theo, chúng tôi nhờ đến sự trợ giúp của một chuyên gia pháp lý, Josilda Ndreaj (LLM), người đã xem xét một số tài liệu pháp lý này và xác định các điểm chính mà người dùng cần lưu ý.

Đối với khoảng 30 công cụ AI có phiên bản ứng dụng di động khả dụng, chúng tôi đã tìm kiếm từng công cụ trên Apple App Store và ghi lại nhãn quyền riêng tư của chúng được hiển thị trên danh sách của chúng. Chúng được chia thành 14 loại dữ liệu có thể được thu thập từ người dùng và mục đích là gì. Để tính toán ứng dụng AI nào thu thập được nhiều dữ liệu nhất, chúng tôi đã đo lường số lượng trong số 14 loại có thể mà các ứng dụng này theo dõi người dùng của họ. 

Điều quan trọng cần lưu ý là 14 danh mục này được chia thành các điểm dữ liệu riêng lẻ. Ví dụ, 'Thông tin liên hệ' bao gồm năm điểm dữ liệu, đó là; 'Tên', 'Địa chỉ email', 'Số điện thoại', 'Địa chỉ thực' và 'Thông tin liên hệ của người dùng khác'. Để tìm hiểu ứng dụng nào thu thập nhiều điểm dữ liệu riêng lẻ nhất, hãy xem cột cuối cùng trong mỗi bảng.

Một số ứng dụng sẽ thu thập nhiều điểm dữ liệu riêng lẻ hơn so với những ứng dụng xuất hiện cao hơn trong bảng xếp hạng. Điều này là do phương pháp xếp hạng của chúng tôi xem xét ứng dụng nào thu thập dữ liệu trên nhiều danh mục nhất nói chung, cho thấy bức tranh rộng hơn và do đó "hoàn thiện" hơn về dữ liệu người dùng, thay vì chiều sâu thông tin mà chúng thu thập trong từng danh mục. 

nguồn

Yêu cầu sửa lỗi

Chúng tôi cập nhật nghiên cứu này theo định kỳ.

Nếu bạn là chủ sở hữu của bất kỳ công cụ AI nào có trong nghiên cứu này và bạn muốn phản biện thông tin trên trang này, chúng tôi sẵn sàng cập nhật thông tin tùy thuộc vào việc chúng tôi xem xét bằng chứng bạn cung cấp. Khi liên hệ với chúng tôi về vấn đề này, chúng tôi vui lòng yêu cầu: 

  • tài liệu kinh doanh xác minh tính hợp pháp của bạn (ví dụ: giấy chứng nhận thành lập hoặc giấy tờ đăng ký) 
  • thông tin trên trang này mà bạn cho là đã lỗi thời (vui lòng nêu cụ thể)
  • cách thức cập nhật và lý do, với các liên kết đến tài liệu hỗ trợ việc này (ví dụ: các sửa đổi đối với Điều khoản dịch vụ)

Vui lòng liên hệ với chúng tôi tại [email được bảo vệ] với dòng tiêu đề: 'Yêu cầu sửa lỗi: Nghiên cứu về công cụ AI', cùng với tên công cụ AI mà bạn đang liên hệ với chúng tôi.

Bogdan Rancea

Bogdan Rancea là người đồng sáng lập Ecommerce-Platforms.com và là người quản lý chính của ecomm.design, một nơi trưng bày các trang web thương mại điện tử tốt nhất. Với hơn 12 năm trong lĩnh vực thương mại điện tử, ông có nhiều kiến ​​thức và con mắt tinh tường về những trải nghiệm bán lẻ trực tuyến tuyệt vời. Là một nhà thám hiểm công nghệ thương mại điện tử, Bogdan thử nghiệm và đánh giá nhiều nền tảng và công cụ thiết kế khác nhau như Shopify, Figma và Canva và cung cấp lời khuyên thực tế cho chủ cửa hàng và nhà thiết kế.