细节背后:了解人工智能应用程序和隐私

如果您通过此页面上的链接订阅服务,Reeves and Sons Limited 可能会赚取佣金。 查看我们的 伦理声明.

人工智能已迅速成为当代时代精神的一部分——但围绕该主题的伦理问题仍未解决。 有多少用户完全清楚自己注册的是什么?

在这里,通过研究最流行的人工智能工具和应用程序背后的条款和条件以及隐私政策,电子商务平台揭示了您在使用这些工具满足日常业务需求时需要了解的内容。

我们分析了这些工具收集的数据和个人信息(以及收集的目的),以帮助你确定哪些 AI工具、软件和平台最适合您的预期用途。 我们还咨询了法律专家来解释这些术语 这些工具的条款和条件。

我们分析了 Apple App Store 中大约 30 个流行 AI 工具的移动应用程序版本的隐私标签,以了解哪些工具会收集您的数据以及原因。 

从用户收集的数据(及其目的)分为 14 个类别,从而可以确定哪些应用程序收集和跟踪最多的用户数据。

欲了解更多详细信息,请参阅本页末尾的方法论部分。

这些人工智能应用程序收集哪些数据?

本研究评估的人工智能工具收集各种类型的数据。 其中一些关注的是用户的个人详细信息 — 从屏幕名称和银行详细信息到他们的健康和健身情况,甚至种族/民族、性取向、性别认同和政治观点等敏感信息。 

其他数据则与用户创建的内容(如电子邮件和消息、照片、视频和录音)或用户与产品本身的互动方式有关,如应用内搜索历史记录或他们看过的广告。更不具人性化的是收集的诊断信息,用于显示崩溃数据或能源使用情况。

这些人工智能应用程序为什么要收集数据?

这里有 应用程序收集数据的不同原因, 其中一些可能比其他的更合理 — 例如,可以使用生物识别或联系信息来验证用户的身份。

同样,应用程序可能需要访问某些数据才能正常运行,包括防止欺诈或提高可扩展性和性能。

更具体地说,消息应用程序需要访问联系人、手机摄像头和麦克风才能拨打电话,而地理定位对于出租车或送货应用程序来说是必需的。

收集数据的次要原因可能包括 应用程序开发者进行的广告或营销(例如,向您的用户发送营销信息);启用第三方广告(例如,通过跟踪来自其他应用程序的数据来向用户投放有针对性的广告);以及分析用户行为,包括评估现有功能的有效性或规划新功能。

嘿,移动用户 👋 下表可以 水平滚动 查看所有数据,但这个页面在 Desktop.

人工智能应用程序收集你的数据并与第三方广告商分享

带有按钮的列标题是可排序的。
人工智能应用 与他人共享的数据百分比 浏览历史 联系方式 标识符 地址 其他数据 购买者 搜索历史 使用情况的数据 收集的数据点数量
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
谷歌助理 21% 1 1 1 3
14% 1 1 2
Pixai 14% 1 1 2
沃博 14% 1 1 2
ChatGPT 7% 1 1
精灵AI 7% 1 1
Lensa 7% 1 1
语音化 7% 1 1
星空AI 7% 1 1

在我们研究的所有人工智能应用中, Canva 是一款图形设计工具,它收集了大部分用户数据,用于第三方广告目的 ——约 36%。相比之下,为此目的收集数据最少的五个应用程序仅收集了 7% 多一点的数据。

Canva 应用程序从您那里收集并与第三方共享的数据包括您的搜索历史记录、位置、电子邮件地址以及上表显示的其他信息。 

紧随 Canva 之后的是游戏化的语言学习应用程序 Duolingo (约36%), 谷歌助理 (约 21%),以及 微软的必应 (约 14%)——全部 还可以与第三方共享您的数据

在收集数据最少的五个应用中,只有 星光 (图像生成器) 仅限于共享使用数据.

人工智能应用程序收集你的数据以谋取私利

带有按钮的列标题是可排序的。
应用 为应用程序自身利益而收集的数据百分比 浏览历史 联系方式 标识符 地址 购买者 搜索历史 使用情况的数据 收集的数据点数量
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
亚马逊的Alexa的 36% 4 2 1 1 2 10
谷歌助理 36% 1 2 2 1 2 8
照相室 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
星空AI 14% 2 1 3
14% 1 1 2
Lensa 14% 1 1 2
水獭 7% 2 2
优珀 7% 1 1
7% 1 1
Pixai 7% 1 1
语音化 7% 1 1
沃博 7% 1 1

Canva 还在收集用户数据用于自身广告或营销目的的 AI 应用排行榜上名列前茅.为此,Canva 收集 约 43% 的用户数据.

第三名 亚马逊 Alexa 收取 36% 出于相同目的收集您的数据。这包括您的电子邮件地址、实际地址、电话号码、搜索历史记录和购买历史记录以及其他五个数据点。 谷歌助理 出于这个原因,Google 收集并共享相同百分比的数据,尽管涉及八个单独的数据点,而亚马逊 Alexa 收集的数据点为十个。

干燥 文本转语音的语音生成器 Speechify 是收集数据最少的应用程序之一。 根据 Apple App Store 列表的隐私标签,Speechify 收集 只有一个数据点 为了自己的利益;您的设备ID。

为任何目的收集你的数据的人工智能应用程序

带有按钮的列标题是可排序的。
应用 数据收集百分比 浏览历史 联系方式 联系我们 诊断 财务信息 健康与健身 标识符 地址 其他数据 购买者 搜索历史 敏感信息 使用情况的数据 用户内容 收集的数据点数量
亚马逊的Alexa的 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
谷歌助理 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
水獭 57% 7 3 5 7 2 3 2 11 40
57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
纪念品 43% 6 4 6 6 6 4 32
艾尔莎说 43% 2 6 6 3 3 3 23
照相室 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
困惑人工智能 36% 6 6 2 1 6 21
1 / 2

所有人工智能模型都需要通过机器学习进行某种形式的训练——这意味着 他们需要数据.

如果我们希望人工智能工具能够得到改进并变得更加有用,我们的隐私可以看作是提供这些数据的必要权衡。

然而, 效用与剥削之间的界线 应该画出什么,以及为什么画,是一个棘手的问题。

鉴于 DeepSeek 目前声名狼藉,值得关注. Apple App Store 上的列表显示 DeepSeek 不会为了自己的利益(例如 DeepSeek 自己的营销和广告)或与第三方共享收集用户数据。

但值得指出的是 其 隐私政策另有说明 (稍后会对此进行详细介绍)。 

干燥 DeepSeek 应用程序本身收集了 50% 的用户数据,用于 DeepSeek 的分析和应用功能。为了进行比较, ChatGPT 应用程序收取 36%.

一些媒体报道称,DeepSeek 源自中国,存在安全风险(包括数据收集和可能传播错误信息),以及削弱美国竞争对手。这两方面的问题不太可能通过 DeepSeek 的条款和条件以及隐私政策,大约需要 35分钟阅读并被评为 “非常困难” 按照 Flesch-Kincaid 可读性量表。

无论您的数据被如何使用, 亚马逊 Alexa 收集的用户数据比任何其他 AI 应用程序都多 这项研究涵盖了 93% 您的数据(或 116 个单独指标,主要是联系信息、用户内容和使用数据)。

谷歌助理 接下来是收集 86% ,其次是 Duolingo,收集 79% .

在规模的另一端, AI 图像生成器,稳定扩散,不收集任何数据。这是根据 Apple App Store 列表中的隐私标签得出的。

虽然所有 生成式人工智能 模型需要大量数据进行训练,这种训练在特定应用开发之前进行。在大多数情况下,应用创建者并不拥有他们使用的 AI 模型;因此,用户数据收集与应用本身的功能有关。 这也许可以解释为什么我们调查过的一些应用程序在上表中没有信息。

了解人工智能工具背后的条款和条件

现在,让我们看看 法律文件 找出不同人工智能工具背后的原因 阅读的难易程度。这是基于弗莱士-金凯德阅读年级水平测试。

该系统将教材与美国学校阅读水平(从五年级到十二年级)进行比较,然后是大学、大学研究生和专业水平。六年级水平的教材被定义为“消费者会话英语”,而专业水平的教材则被描述为“极难阅读”。

可读性分数越低,文本越难阅读。

带有按钮的列标题是可排序的。
Clipchamp 3 16小时分钟 27.2 🤯🤯🤯🤯🤯🤯🤯
2 20小时分钟 35.4 🤯🤯🤯🤯🤯
网易 2 15小时分钟 37.9 🤯🤯🤯🤯🤯
Facetune 2 4小时分钟 34.4 🤯🤯🤯🤯🤯🤯
人工智能 1 47小时分钟 31.4 🤯🤯🤯🤯🤯🤯
水獭 1 11小时分钟 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 9小时分钟 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
伽玛 1 6小时分钟 30.9 🤯🤯🤯🤯🤯🤯
语音化 1 6小时分钟 35.0 🤯🤯🤯🤯🤯🤯
Runway 1 2小时分钟 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

2023 年,英国商业保险公司 Superscript 对 500 家中小企业主进行了调查 找出什么事情最耗费他们的时间。

值得注意的是,“充足的睡眠”对身心健康和认知功能至关重要,排在第三位,仅次于“长时间工作”和“整理纳税申报单”。

三分之一的受访者认为,在工作时间内不可能完成所有行政工作,并说他们 每天需要额外四个小时才能完成所有事情.

这让我们感受到经营中小企业是多么的艰难,而且 阅读条款和条件所需的时间 他们所依赖的工具背后是 不容易得到.

在这种背景下,Otter、Trint 和 Descript 等转录工具的 T&C 的 40 分钟阅读时间至关重要。 

这是假设我们可以理解 最难理解的条款和条件。这就是我们寻求法律专家的专业知识的原因。

乔西尔达·恩德雷亚是一名法律专业人士和执业律师,曾代表财富 500 强客户处理复杂的法律事务,并为各种公司提供法律咨询。

最近,作为一名独立顾问,她 专注于知识产权法 处于区块链技术与人工智能的交叉点。

Josilda Ndreaj(法学硕士)是一名法律专业人士和执业律师,擅长知识产权(IP)法。

她的法律顾问生涯始于一家知名的国际律师事务所,为财富 500 强客户提供服务。在这里,Josilda 处理复杂的法律事务,并为不同的公司提供法律咨询。

在对创新、创造力和新兴技术的兴趣的驱动下,Josilda 进军独立咨询行业,专注于知识产权法,涉及区块链技术和人工智能的交叉领域。

Josilda 拥有两个法学硕士学位:一个是地拉那大学民商法专业的学位,另一个是中南财经政法大学的知识产权法专业的学位。

因此,Josilda 具有独特的优势,可以审查这些人工智能工具的一系列法律文件,为我们这些没有两个法学硕士学位的人提炼出要点。

她的总结概述如下:

Gemini(前身为 Bard)没有义务声明培训来源,因此我们无法检查它是否使用受版权保护的材料进行培训。Gemini 不免于此类侵权的责任;如果版权所有者提出指控,Gemini 会承担一些责任。但需要注意的是,Gemini 是根据用户提供的内容进行培训的。为此, Gemini 需要用户许可。如果用户同意将该许可授予 Gemini,但他们(用户)实际上并不拥有版权,则责任转移到用户身上。

用户保留对其输入和提示的所有权,但输出所有权更为复杂。Gemini 在其条款中没有明确说明这一点。许多立法不承认机器的知识产权。然而,即使用户拥有输入,也很难说输出是“人为生成的”。

准确性和可靠性

依靠 Gemini 获得准确信息时,请务必谨慎。 服务条款规定不应自动假定准确性 由用户提供。因此,您应该对 Gemini 生成的所有内容进行事实核查。 

企业主在发布 Gemini 的输出之前,一定要进行交叉引用、检查更新情况并咨询专家以确保准确性。否则,他们可能会发布误导性信息,这可能会带来声誉或法律后果。

安全和保密

Google(Gemini 的所有者)在其隐私政策中没有提供有关如何处理机密数据的信息。

用法

谷歌在其服务条款中没有说明 Gemini 生成的内容是否可以用于商业目的。它解释道 知识产权等方面的限制 但没有专门针对人工智能生成的内容。

目前,没有法律要求 ChatGPT 公开声明其模型是基于什么进行训练的。因此,由于它不透露其来源,我们无法知道 ChatGPT 是否提供或处理受版权法保护的内容。如果有人发现 ChatGPT 的内容受版权保护, 他们可以提出索赔 删除该内容。

ChatGPT 的条款规定,用户输入的内容,即使受版权保护, 用于改进服务和训练模型;并且用户无法选择退出。ChatGPT 的条款规定,用户 拥有所有输入和输出内容(如果输入内容已被合法使用),但这并不能保证用户拥有该输入和输出内容的版权。此外, 用户不能将 ChatGPT 中的任何内容误认为是“人类生成的”。

准确性和可靠性

用户应该验证 ChatGPT 提供的所有信息。这是因为 ChatGPT 不承担提供准确,最新内容。根据其免责声明部分, 用户承担准确性的所有风险、质量、可靠性、安全性和完整性。因此,请务必核实 ChatGPT 中的事实;交叉引用、审查更新,并与专家核实准确性。如果企业主在发布前未核实 ChatGPT 内容的准确性,他们可能会面临法律或声誉后果。 

安全和保密

ChatGPT 从输入中收集信息(包括个人信息) 潜在地训练其模型(根据隐私政策)。用户可以选择退出。如果通过 API 连接(ChatGPT Enterprise、Team 等)提交数据,情况就会发生变化;这是因为 ChatGPT 不使用来自企业客户的输入 训练模型。ChatGPT 已采取安全措施,但并未明确说明安全漏洞的责任。这一切都取决于地区法律。 

用法

ChatGPT 用户拥有自己的输入和输出内容;因此,用户必须确保内容不违反任何法律。 用户不能声称内容是人类生成的,但你也不必说它是人工智能生成的。只要用户遵守当地法律和使用条款,ChatGPT 内容就可以用于商业目的、社交媒体、付费广告和其他渠道。建议你在发布 ChatGPT 内容之前核实事实、提供参考并遵守法律。 

隐私政策和条款均未明确说明 DeepSeek 的 AI 工具是否接受过受版权保护材料的训练。此外,它们也无法保证输出结果不会侵犯任何人的版权。DeepSeek 的使用条款规定 用户保留对其输入的权利 (提示),但这并不一定意味着它们首先受到版权保护,因此用户应该采取措施确保他们使用的提示不是别人的知识产权。

该条款还明确规定 用户负责所有输入和相应的输出,因此,用户应通过寻求法律建议和/或使用版权数据库来独立验证这些内容。例如, 美国版权局公共目录 允许用户搜索在美国注册的作品,同时 谷歌的反向图像搜索 帮助检查图像是否已发布或受版权保护。

准确性和可靠性

DeepSeek 的使用条款规定,输出内容由人工智能生成,因此可能包含错误和/或遗漏。 具体指医疗、法律和财务问题 用户可能会向 DeepSeek 询问什么,以及 DeepSeek 的输出如何不构成建议。但更广泛地说,它 对于“职业问题”也持同样的看法可以是任何领域——从营销和研究到技术和教育等等——而且产出不会‘代表……的意见 任何 专业领域。因此,用户应该独立验证 DeepSeek 的所有输出的准确性。

安全和保密

DeepSeek 的隐私政策解释说,用户输入会被处理以生成输出,但也会 改进 DeepSeek 的服务。 这包括 “培训并提高他们的技术”。 因此,用户应谨慎输入敏感信息,尽管 DeepSeek 已经“商业上合理尽管已经采取措施保护用作输入的数据和信息,但它并不提供任何绝对的保证。DeepSeek 的条款规定,他们不会在公共论坛上发布输入或输出,但 有些可能会与第三方共享.

用法

用户通过 DeepSeek 生成的任何内容都可以用于商业目的,但由于抄袭和准确性存在灰色地带,用户应在以这种方式使用内容之前采取措施验证内容。DeepSeek 的服务条款没有提及用户可以在世界任何地方发布这些内容的任何限制,但它们明确规定用户必须 将其宣布为人工智能生成的,“以提醒公众注意内容的合成性质”。

Canva 并未依法披露其训练数据来源。因此,我们不知道是否使用了受版权保护的材料。 用户拥有所有输入和输出内容 (不是 Canva),但 Canva 可能会使用该内容来改进其服务。 

准确性和可靠性

Canva 熊 不承担内容准确性的责任. 用户应始终核实事实。 

安全和保密

Canva 使用输入内容训练其模型。 这是 用户有责任避免使用机密或个人信息进行输入。Canva 尝试过滤此类输入以进行模型训练,但没有任何保证。Canva 的 AI 工具对用户造成的安全问题不承担任何责任。

用法

Canva 用户可以使用 生成的内容 用于商业目的。 条件,但就像不发表 误导性内容. 公司拥有一 禁止物品清单,标题为“做个好人”。

与 ChatGPT 类似,DALL-E 不会声明其模型训练的来源。但是,如果您发现受版权保护的内容,您 可以提交驱逐申请很难检查 DALL-E 是否侵犯了版权,因为没有法律要求 DALL-E 披露其数据来源。根据条款,用户输入 可用于训练 DALL-E 的模型 — 即使内容受版权保护。用户可以选择退出。  

DALL-E 用户自己的输入和输出内容 (不是 DALL-E),但这并不意味着用户对所述内容拥有版权。此外,用户 不能声称 DALL-E 内容是人工生成的.

准确性和可靠性

DALL-E 熊 对不准确的内容不承担任何责任。其条款将所有责任转嫁给用户。这些责任包括内容的可靠性、准确性、质量、安全性和完整性。因此,在发布之前, 用户应始终进行交叉引用、查看更新、核实事实并与专家核对因为发布虚假信息可能会导致声誉或法律后果。 

安全和保密

DALL-E 的隐私政策和条款和条件从未明确规定发生安全漏洞时的责任。不过,DALL-E 确实采取了安全措施。发生黑客攻击时谁来承担责任取决于当地法律。

DALL-E 收集用户输入以进行模型训练,甚至是个人信息,但您可以选择不输入这些信息。但是,使用 API,DALL-E 处理输入数据的方式不同; 它不使用商业用户的数据来训练其模型

用法

干燥 用户拥有DALL-E输入和输出内容;他们还必须确保内容不违反任何法律或 DALL-E 条款。 您不能声称 DALL-E 的内容是人工生成的,但你也不必说它是由人工智能生成的。 

您可以将 DALL-E 用于商业目的,只要您遵守所有法律和 DALL-E 条款即可。法规可能会发生变化,但在撰写本文时,欢迎用户在社交媒体、广告和其他渠道上发布 DALL-E 内容。用户应始终做出适当的引用并核实事实,以避免违反任何法律。

Bing 没有义务分享其数据训练源,因此很难确定 Bing AI 是否无意中使用了受版权保护的内容。虽然很难识别,但用户可以对受版权保护的内容提出索赔。微软服务协议规定 Bing AI 会利用用户的输入和输出来改进其模型,但没有任何正式的措施来防止知识产权盗窃。

干燥 服务协议规定,用户授予微软全球范围内免版税的知识产权许可,以使用您的内容. 此外,Bing/Microsoft 接受用户输入来训练人工智能模型.

准确性和可靠性

Microsoft 不保证内容的准确性或及时性 来自其 AI 服务。因此,您应该对 Microsoft 的 AI 工具中的所有内容进行事实核查,尤其是如果您是想要避免任何声誉和法律后果的企业主。 

安全和保密

微软的 AI 工具(包括 Bing AI) 使用个人和机密用户数据来训练其模型其服务协议并不涵盖AI生成的内容,而是试图将所有AI内容的责任转嫁给用户。 微软也不承担任何责任 确保客户的隐私和安全实践。简而言之,如果您在使用 Bing AI 时数据遭到泄露,那是您的问题,而不是微软的问题。  

用法

微软并未宣称对用户内容拥有所有权但它并没有具体规范人工智能生成的内容,因为所有权是不确定的。服务协议允许人们将内容用于商业目的,但有一些重要的规定:你必须接受人工智能生成的内容缺乏人类的创造力,因此不能声称它是知识产权;你也不能侵犯他人的知识产权。简而言之,你不能使用他人的知识产权,但你用 Bing 制作的任何东西可能都不是你自己的知识产权。

Quillbot 有 没有义务披露用于训练模型的来源。然而,有趣的是,该公司试图规范一种特殊情况:如果模型训练的来源是人工智能的输出,该怎么办?Quillbot 本质上试图将版权输出的可能性降到最低,但表示如果用户输入受版权保护的内容,输出仍有可能受到版权保护。更令人困惑的是,Quillbot 试图涵盖所有领域,称用户授予 Quillbot 无限的、可再授权的许可,同时还声称用户拥有其所有输出。 

准确性和可靠性

Quillbot 熊 不承担准确性或可靠性的责任。用户应该非常谨慎,并核实来自 Quillbot 的所有事实。 

安全和保密

Quillbot 有 保护用户隐私的措施,但它最终仍可能会处理个人数据。儿童隐私受到特殊保护。黑客入侵导致数据丢失的责任将视具体情况而定。Quillbot 表示,用户应采取措施防止其个人数据被黑客入​​侵,并且 Quillbot 已设置了数据保护元素。 

用法

Quillbot 用户可以发布生成的内容用于商业目的,但您可能需要遵循一些规则,例如不发布有害或误导性的内容。Quillbot 的 条款 不要说你需要声明其内容是人工智能生成的。简而言之, 用户可以发布由 Quillbot 生成的内容 只要它不违反任何法律或权利。 

Pixlr 不会透露其 AI 模型训练的来源,因为他们没有法律义务这样做。其条款规定用户拥有内容,但用户也 授予 Pixlr 使用内容的许可。这是试图尽量减少使用版权内容。 

准确性和可靠性

Pixlr 对不准确的信息不承担任何责任 在其 AI 生成的内容中。用户应该小心核实 Pixlr 的所有内容。 

安全和保密

Pixlr 接受用户输入以进行 AI 模型训练。它将输入的谨慎性转嫁给用户 个人或机密信息。Pixlr 放弃了从训练数据中过滤部分信息的责任,但它确实使用了一些过滤器来屏蔽个人或机密信息。Pixlr 声称 对因用户行为导致的安全问题不承担任何责任

用法

用户可以发布通过 Pixlr 制作的 AI 生成内容用于商业目的(但需遵守一些条件)。 条款 不需要你声明任何内容是人工智能生成的。不过,用户仍然要对侵犯权利或法律承担责任。 

中途 用户授予公司对其通过其制作的所有资产的权利,用户还拥有所有资产。也有例外,比如你不能声称拥有所有权,如果你 刚刚放大了原创者的图像.

准确性和可靠性

Midjourney 对可靠性和准确性不承担任何责任 内容。因此,用户应格外小心,核实事实并检查可靠性。 

安全和保密

Midjourney 使用用户输入来训练模型,即使它包括 个人或机密数据。Midjourney 声称用户应该小心处理敏感数据,所以这不是他们的问题。该公司试图过滤掉某些信息以进行模型训练,但这不是必需的。Midjourney 声称对用户行为可能产生的安全问题不承担任何责任。 

用法

Midjourney 用户可以发布生成的内容用于商业目的。但需要满足一些条件,例如需要订阅 Pro 版本 如果公司年收入超过 1 万美元,适用。在撰写本文时,用户不必声称任何内容是由 Midjourney 的 AI 生成的,尽管立法正在改变这一点。只要不违反任何权利或法律,用户通常可以使用任何 Modjourney 内容。 

Clipchamp 是微软的产品,因此它声称没有义务共享模型训练的数据源。因此,很难判断该 AI 工具是否无意中使用了受版权保护的数据。必须有人识别出版权侵权行为才能提出索赔,但这不太可能。微软服务协议规定 它可以利用用户输入和输出来改进服务,而微软并不监管知识产权事务。此外, 用户向微软授予全球范围内免版税的知识产权许可

准确性和可靠性

Clipchamp 和 Microsoft 无法保证其人工智能工具的准确性或及时性,因此用户应在发布前核实所有事实。对于可能面临法律和声誉后果的企业主来说尤其如此。 

安全和保密

Clipchamp 和 Microsoft 使用个人和机密数据进行模型训练微软试图将所有内容问题的责任转嫁给用户。 黑客攻击和安全漏洞也是如此;如果发生任何事情,责任由用户承担。 

用法

Clipchamp 和微软避免监管人工智能生成的内容, 从未声称微软拥有该内容。从技术上讲,微软表示用户拥有它,但没有知识产权。用户可以出于商业目的发布 Clipchamp 内容,但有两个规定:您不能侵犯知识产权,或声称您拥有生成内容的知识产权。 

洛卡 条款 声明公司没有义务分享数据训练源,所以他们没有这样做。用户在使用 Looka 生成的内容时承担所有风险。 

准确性和可靠性

Looka 对其 AI 工具输出的准确性和可靠性不承担任何责任。 用户应核实所有事实 并检查可靠性。 

安全和保密

Looka 使用输入数据(甚至可能是个人和机密数据)来训练其模型, 因此用户有责任不在输入中使用此类数据。 Looka 试图过滤此类数据,但他们声称没有必要这么做。此外,所有安全问题都是用户的负担。 

用法

Looka 用户可以将 AI 生成的内容用于商业目的,但可能需要遵守条件或 付费。用户无需将自己生成的内容标记为AI生成。用户应避免发布侵犯权利或法律的生成内容。 

无法判断 Speechify 训练模型 版权材料。我们根本不知道。Speechify 的条款建议不要使用版权材料作为输入,这意味着一些输出可能包含版权数据。Speechify 声称对此不承担任何责任

准确性和可靠性

Speechify 根据其 条款 ,对其输出的准确性不承担任何责任。用户应始终检查 Speechify 的及时性、可靠性和准确性。 

安全和保密

语音化 在输入敏感或个人数据时,将所有责任转嫁给用户。该工具确实使用输入来训练模型,因此用户应该小心。Speechify 不一定必须过滤敏感或个人数据,但它会尝试使用一些过滤器。所有安全问题的责任都转嫁给用户。 

用法

Speechify 用户可以使用 用于商业目的的输出,但需要满足一些条件,例如必须订阅或获得许可. 用户 不必声明 Speechify 内容是 AI 生成的.然而,Speechify 用户在发布 Speechify 输出时绝不应侵犯权利或法律。 

卡普温 条款将所有知识产权和准确性责任置于用户身上. 所有用户授予 Kapwing 非独占许可,但 用户保留内容的所有权。Kapwing 没有透露是否使用输入数据进行模型训练。 

准确性和可靠性

Kapwing 将所有准确性责任转嫁给用户,尤其是任何法律和声誉后果。

安全和保密

Kapwing 用户在选择将机密信息输入其 AI 工具时需承担所有风险。该公司也不对服务的安全性提供任何保证或责任。

用法

您可以将 Kapwing 内容发布用于商业用途,但 Kapwing 建议用户谨慎行事。他们的条款并未说明用户是否必须声明 Kapwing 的输出是人工智能生成的。

Otter.ai 表示其服务中不允许出现侵犯版权的材料,但很难证实这一说法。 用户保留输入的所有权和版权 并在 Otter.ai 上发布帖子,但 Otter.ai 说 用户负责 不输入以前受版权保护的内容.Otter.ai 也可以使用机器学习的输入.

准确性和可靠性

Otter.ai 对准确性和可靠性不承担任何责任,因此用户应始终核实内容。使用事实误导或不正确的信息可能会给用户带来法律或声誉问题。 

安全和保密

泄露机密信息的所有风险 Otter.ai 上的所有权归用户所有。 

用法

用户可以发布带有商业目的的内容 因为用户是内容的所有者 来自 Otter.ai。尽管如此,人工智能生成的内容并没有明确的所有权规则。Otter.ai 还表示 其转录的笔记可以搜索和共享.

PhotoRoom 可以接收用户的输入和输出以进行模型训练,但关于该服务是否这样做的信息有限。PhotoRoom 条款提醒用户避免输入受版权保护的内容。 所有责任由用户承担 为了这。 

准确性和可靠性

照相室 不对其人工智能生成内容的准确性或可靠性承担任何责任。用户应自行检查以验证这一点。

安全和保密

PhotoRoom 使用输入来训练其模型。 用户有责任在插入机密 or 的个人信息。该服务试图过滤这些类型的输入,但声称没有这样做的义务。用户对安全问题承担全部责任。 

用法

PhotoRoom 内容 可以用于商业目的,但可能存在一些条件,例如注册订阅。条款规定您不必将内容标记为 AI 生成。如果用户违反权利或法律,他们可能会面临其他后果。 

免责声明

此信息仅供一般参考,不应视为法律建议。电子商务平台对错误或遗漏不承担任何责任。请咨询合适的法律专业人士,获取针对您特定需求和情况的建议和指导。

结语

人工智能的普及使得我们越来越有可能使用基于这项技术的工具和应用程序——但我们中的许多人却没有足够的时间去阅读它们的条款和条件。 

2017 年,专业服务网络 德勤 发现 91%的消费者 “无需阅读就自愿接受法律条款和条件” — 在 97 至 18 岁之间上升至 34%。

考虑到我们给多少 AI 条款和条件的可读性评分较低,似乎 这些文件的法律术语晦涩难懂,让用户根本就不想去尝试理解。 

我们与一位法律专业人士合作来为我们解析这些文件,但这是否有必要值得怀疑。

我们希望这项研究——包括其可读性评级,以及 Josilda Ndreaj 在需要注意的条款和条件方面的专业知识——将有助于指导您选择使用哪些 AI 应用程序和工具。 

方法论和来源

我们如何进行研究

我们从一份包含约 90 个 AI 工具和应用的种子列表开始,首先收集了每个工具的法律文件,从条款和条件到隐私政策。然后,我们记录了这些文件的字数,并使用 Flesch-Kincaid 的评分系统计算了它们的可读性分数。接下来,我们寻求法律专家 Josilda Ndreaj (LLM) 的帮助,她审阅了这些法律文件中的部分内容,并确定了用户应该注意的要点。

对于约 30 款提供移动应用版本的 AI 工具,我们在 Apple App Store 上进行了搜索,并记录了它们在列表中显示的隐私标签。这些标签分为 14 类,可根据用户收集的数据及其目的进行分类。为了计算哪些 AI 应用收集了最多的数据,我们测量了这些应用在 14 个可能的类别中跟踪了多少用户。 

值得注意的是,这 14 个类别进一步细分为单个数据点。例如,“联系信息”包括五个数据点,分别是“姓名”、“电子邮件地址”、“电话号码”、“实际地址”和“其他用户联系信息”。要找出哪些应用收集了最多的单个数据点,请查看每个表格中的最后一列。

有些应用会比排名靠前的应用收集更多的单个数据点。这是因为我们的排名方法考虑了哪些应用总体上收集了最多的类别数据,这可以更广泛、更“完整”地反映用户数据,而不是它们在每个类别中收集的信息深度。 

来源

更正请求

我们会定期更新这项研究。

如果您是本研究中包含的任何 AI 工具的所有者,并且想要对本页上的信息提出质疑,我们愿意根据对您提供的证据的审查来更新它。在就此与我们联系时,我们恳请您提供: 

  • 证明您合法性的商业文件(例如,公司注册证书或注册文件) 
  • 您认为此页面上的信息已过时(请具体说明)
  • 应如何更新以及为何更新,并提供支持此点的文档链接(例如,对服务条款的修订)

请与我们联系 [电子邮件保护] 主题行为:“更正请求:AI 工具研究”,以及您联系我们所涉及的 AI 工具的名称。

波格丹兰萨

Bogdan Rancea 是 Ecommerce-Platforms.com 的联合创始人,也是 ecomm.design 的首席策展人,ecomm.design 是最佳电子商务网站的展示平台。他在数字商务领域拥有超过 12 年的经验,拥有丰富的知识和敏锐的洞察力,能够提供出色的在线零售体验。作为一名电子商务技术探索者,Bogdan 测试和评论了各种平台和设计工具,例如 Shopify、Figma 和 Canva,并为店主和设计师提供实用建议。