細かい文字の裏側: AI アプリとプライバシーを理解する

このページのリンクからサービスに加入すると、Reeves and SonsLimitedがコミッションを獲得する場合があります。 私たちを参照してください 倫理声明.

人工知能は急速に現代の時代精神の一部となったが、この主題に関する倫理的考慮は未解決のままである。 自分が何にサインアップしているのかを完全に認識しているユーザーは何人いるでしょうか?

ここでは、最も人気のある AI ツールとアプリの利用規約とプライバシー ポリシーに焦点を当て、Ecommerce Platforms が、日常のビジネス ニーズにこれらのツールを使用する際に知っておくべきことを説明します。

これらのツールが収集するデータと個人情報(およびその目的)を分析し、どのツールが AIツール、ソフトウェア、プラットフォームは、目的の用途に最も適しています。 また、専門用語を解説するために法律の専門家に相談しました。 これらのツールの利用規約の背後にあるもの。

私たちは、人気の AI ツールのモバイル アプリ バージョン約 30 種類について Apple App Store のプライバシー ラベルを分析し、どのツールがユーザーのデータを収集し、その理由は何かを理解しました。 

ユーザーから収集されるデータ(およびその目的)は 14 のカテゴリに分類されており、どのアプリが最も多くのユーザーデータを収集および追跡しているかを特定できます。

詳細については、このページの最後にある方法論のセクションをご覧ください。

これらの AI アプリはどのようなデータを収集するのでしょうか?

この研究で評価された AI ツールは、さまざまな種類のデータを収集します。 これらの中には、ユーザーの個人情報に焦点を当てているものもある — スクリーンネームや銀行口座の詳細から、健康状態やフィットネス、さらには人種/民族、性的指向、性自認、政治的意見などの機密情報まで。 

その他には、ユーザーが作成したコンテンツ(メールやメッセージ、写真、動画、音声録音など)や、アプリ内検索履歴や閲覧した広告など、ユーザーが製品自体とどのようにやり取りするかに関するものもあります。さらに非個人的なのは、クラッシュデータやエネルギー使用量を表示するために収集される診断情報です。

これらの AI アプリはなぜデータを収集するのでしょうか?

アプリがデータを収集する理由はさまざまですが、 そのうちのいくつかは他のものよりも正当化できると考えられるかもしれない たとえば、生体認証や連絡先情報を使用してユーザーの身元を認証できます。

同様に、不正行為を防止したり、スケーラビリティやパフォーマンスを向上させるなど、アプリが正しく機能するためには特定のデータへのアクセスが必要になる場合があります。

具体的には、メッセージング アプリは通話を可能にするために連絡先、携帯電話のカメラ、マイクへのアクセスを必要とし、タクシーや配達アプリには位置情報が必要となります。

データ収集のあまり重要でない理由としては、 アプリ開発者による広告やマーケティング(たとえば、ユーザーにマーケティング コミュニケーションを送信するため)、サードパーティの広告の有効化(たとえば、他のアプリからのデータを追跡して、ターゲット広告をユーザーに向ける)、既存機能の有効性の評価や新しい機能の計画などの目的でのユーザー行動の分析。

モバイルユーザーの皆様 👋 以下の表は 水平にスクロール すべてのデータを見るには、このページは間違いなく Desktop.

データを収集し、サードパーティの広告主と共有するAIアプリ

ボタン付きの列ヘッダーは並べ替え可能です。
AIアプリ % 他の人と共有したデータ 閲覧の履歴 連絡先情報 識別子 会社名 その他のデータ 購入 検索履歴 使用データ 収集されたデータポイントの数
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Googleのアシスタント 21% 1 1 1 3
ビング 14% 1 1 2
ピクサイ 14% 1 1 2
ウォンボ 14% 1 1 2
AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 7% 1 1
魔神AI 7% 1 1
レンサ 7% 1 1
話す 7% 1 1
スターリーAI 7% 1 1

私たちの調査に含まれるすべてのAIアプリの中で、 グラフィックデザインツールのCanvaは、サードパーティの広告目的でユーザーから最も多くのデータを収集しています。 — 約 36%。対照的に、この目的でデータを収集するデータが最も少ない 7 つのアプリは、わずか XNUMX% 強しか収集しません。

Canva アプリがユーザーから収集し、第三者と共有するデータには、検索履歴、位置情報、メールアドレス、および上記の表に示すその他の情報が含まれます。 

Canvaに続いてゲーム化された言語学習アプリが登場 Duolingo (約36%) Googleのアシスタント (約21%)、そして マイクロソフトのBing (約14%) — すべて あなたのデータを第三者と共有する

最も少ないデータを収集する5つのアプリのうち、 星空 (画像ジェネレーター) 使用データのみを共有することに限定している.

自らの利益のためにデータを収集するAIアプリ

ボタン付きの列ヘッダーは並べ替え可能です。
App アプリ自身の利益のために収集されるデータの割合 閲覧の履歴 連絡先情報 識別子 会社名 購入 検索履歴 使用データ 収集されたデータポイントの数
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazonのアレクサ 36% 4 2 1 1 2 10
Googleのアシスタント 36% 1 2 2 1 2 8
フォトルーム 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
スターリーAI 14% 2 1 3
ビング 14% 1 1 2
レンサ 14% 1 1 2
カワウソ 7% 2 2
食べる 7% 1 1
ポー 7% 1 1
ピクサイ 7% 1 1
話す 7% 1 1
ウォンボ 7% 1 1

Canvaは、広告やマーケティング目的でユーザーデータを収集するAIアプリでもトップに立っている。そのためにCanvaは ユーザーのデータの約43%.

XNUMX位には、 Amazon Alexaは36%を獲得 同じ目的でお客様のデータを使用します。これには、電子メール アドレス、住所、電話番号、検索履歴、購入履歴、およびその他 5 つのデータ ポイントが含まれます。 Googleのアシスタント このため、Amazon Alexa が収集する 10 のデータ ポイントと比較して、8 つの個別のデータ ポイントにわたって同じ割合のデータを収集して共有します。

この テキスト読み上げ音声ジェネレーター Speechify は、最も少ないデータを収集するアプリの 1 つです。 Apple App Storeのプライバシーラベルによると、Speechifyは たった一つのデータポイント 自身の利益のため、デバイス ID を使用します。

あらゆる目的でデータを収集するAIアプリ

ボタン付きの列ヘッダーは並べ替え可能です。
App 収集されたデータの割合 閲覧の履歴 連絡先情報 お問い合わせ 診断法 財務情報 ヘルス&フィットネス 識別子 会社名 その他のデータ 購入 検索履歴 機密情報 使用データ ユーザーコンテンツ 収集されたデータポイントの数
Amazonのアレクサ 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Googleのアシスタント 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
カワウソ 57% 7 3 5 7 2 3 2 11 40
ポー 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
ビング 50% 1 2 6 3 3 2 3 20
ディープシーク 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSAスピーク 43% 2 6 6 3 3 3 23
フォトルーム 43% 2 1 9 3 4 1 20
トリント 43% 1 2 1 4 1 2 11
AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 36% 4 8 5 7 2 26
困惑AI 36% 6 6 2 1 6 21
1 / 2

すべてのAIモデルは機械学習による何らかの形のトレーニングを必要とします。つまり データが必要だ.

AIツールを改良し、より便利にしたいなら私たちのプライバシーは、このデータを提供することに対する必要なトレードオフと見なすことができます。

しかし、どこに 実用と搾取の境界線 何をどう描くべきか、そしてなぜ描くべきかは難しい問題です。

現在の悪名を考えると、DeepSeekに対処する価値があるApple App Store のリストには、DeepSeek は自社の利益 (DeepSeek 自身のマーケティングや広告など) のために、または第三者と共有するためにユーザー データを収集しないことが記載されています。

しかし、指摘しておく価値があるのは アプリ環境に合わせて プライバシーポリシーには別の記載がある (これについては後で詳しく説明します)。 

この DeepSeekアプリ自体がユーザーのデータの50%を収集するは、DeepSeekの分析とアプリ機能を提供します。比較のために、 ChatGPTアプリは36%を収集.

一部のメディアは、ディープシークの中国起源(データ収集と誤情報の拡散の可能性の両方)と米国のライバルの弱体化に関連するセキュリティリスクに関する懸念を報じている。どちらも、 DeepSeekの利用規約とプライバシーポリシー、約 読むのに35分、評価は "非常に難しい" フレッシュ・キンケイド読みやすさスケールに基づく。

データがどのように使用されるかに関係なく、 Amazon Alexaは他のAIアプリよりも多くのユーザーデータを収集している この研究には含まれている。全体として、 93% データ(または 116 個の個別の指標、主に連絡先情報、ユーザー コンテンツ、使用状況データ)の

Googleのアシスタント 次に、収集 86%、続いて Duolingo、収集する 79%.

一方、 AI画像ジェネレーター「Stable Diffusion」はデータを収集しないこれは、Apple App Store のリストにあるプライバシー ラベルによるものです。

確かに、 generative AI モデルのトレーニングには膨大な量のデータが必要であり、このトレーニングは特定のアプリの開発前に行われます。ほとんどの場合、アプリ作成者は使用する AI モデルを所有していないため、ユーザー データの収集はアプリ自体の機能に関係します。 これは、私たちが調査したアプリの一部に上記の表に情報がない理由を説明している可能性があります。

AIツールの利用規約を理解する

さて、 法的文書 さまざまなAIツールの背後にあるものを見つけ出す 読みやすいか難しいかこれは、Flesch-Kincaid 読解レベルテストに基づいています。

このシステムでは、テキストを米国の学校読解レベル(12年生からXNUMX年生)、大学、大学卒業、専門家レベルに等しくしています。XNUMX年生レベルのテキストは「一般消費者向けの会話英語」と定義され、専門家レベルのテキストは「非常に読みにくい」と説明されています。

読みやすさスコアが低いほど、テキストは読みにくくなります。

ボタン付きの列ヘッダーは並べ替え可能です。
クリップクランプ 3時間16分 27.2 🤯🤯🤯🤯🤯🤯🤯
ビング 2時間20分 35.4 🤯🤯🤯🤯🤯
veed.io 2時間15分 37.9 🤯🤯🤯🤯🤯
Facetune 2時間4分 34.4 🤯🤯🤯🤯🤯🤯
B.AI 1時間47分 31.4 🤯🤯🤯🤯🤯🤯
カワウソ 1時間11分 32.4 🤯🤯🤯🤯🤯🤯
碧玉 1時間9分 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
ガンマ 1時間6分 30.9 🤯🤯🤯🤯🤯🤯
話す 1時間6分 35.0 🤯🤯🤯🤯🤯🤯
滑走路 1時間2分 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

2023年、英国の企業保険会社スーパースクリプト 中小企業500社の経営者を対象にアンケート調査を実施 何に最も多くの時間を費やしているかを知るためです。

興味深いことに、心身の健康や認知機能にとって極めて重要な「十分な睡眠をとること」は、「長時間労働」と「確定申告の整理」に次いで3位にランクされています。

調査対象者の3分の1は、勤務時間中にすべての事務処理を行うことは不可能だと感じている。と彼らは言いました。 すべてをやり遂げるには1日4時間余分に必要だった.

これは中小企業を経営することがいかに厳しいか、そして 利用規約を読むのに必要な時間 彼らが頼りにしているツールの背後には 簡単に手に入るものではない.

この文脈では、Otter、Trint、Descript などの文字起こしツールの利用規約の読み取り時間が 40 分であることは非常に重要です。 

それは理解できると仮定している 最も読みにくい利用規約です。そのため、私たちは法律の専門家の専門知識を求めました。

ジョシルダ・ンドレイ法律専門家であり弁護士資格を持つ氏は、フォーチュン 500 社のクライアントに代わって複雑な法律問題に対処し、さまざまな企業に助言を提供してきました。

最近では、独立コンサルタントとして 知的財産法に焦点を当てる ブロックチェーン技術と人工知能の交差点。

Josilda Ndreaj (LLM) は、知的財産 (IP) 法の専門知識を持つ法律専門家および弁護士資格保有者です。

法律コンサルタントとしての彼女のキャリアは、フォーチュン 500 社のクライアントを相手にする有名な国際法律事務所で始まりました。ここで、ジョシルダは複雑な法律問題に対処し、さまざまな企業に助言を提供しました。

イノベーション、創造性、新興技術への関心に駆られたジョシルダは、その後、独立したコンサルタント会社に進出し、ブロックチェーン技術と人工知能の交差点をカバーすることで、知的財産法に重点を置きました。

ジョシルダは、ティラナ大学で民法と商法を専門とする法学修士号と、中南経済法大学で知的財産法を専門とする法学修士号の 2 つの法学修士号を取得しています。

そのため、ジョシルダは これらのAIツールの法的文書を厳選してレビューできる独自の立場にある法学修士号を2つ持っていない私たちのために、重要なポイントを抜粋しました。

彼女の要約は以下の通りです。

Gemini (旧称 Bard) にはトレーニングのソースを宣言する義務がないため、著作権で保護された素材でトレーニングされているかどうかを確認することはできません。Gemini はそのような侵害の責任から免除されていません。著作権所有者が告訴した場合、Gemini はいくらかの責任を負います。ただし、Gemini はユーザーが提供したものに基づいてトレーニングされていることに注意してください。このため、 Geminiはユーザーからのライセンスを必要としますユーザーが Gemini にライセンスを付与することに同意したが、実際に著作権を所有していない場合、責任はユーザーに移ります。

ユーザーは入力とプロンプトの所有権を保持しますしかし、出力の所有権はより複雑です。Gemini は利用規約でこの点を明確にしていません。多くの法律では、機械の知的財産権は認められていません。ただし、たとえユーザーが入力を所有していたとしても、出力が「人間が生成した」ものであると主張するのは疑問です。

正確さと信頼性

正確な情報を得るためにジェミニを頼る場合は、常に慎重に行ってください。 利用規約では、正確性が自動的に想定されるべきではないと規定されている したがって、Gemini から生成されたすべてのコンテンツを事実確認する必要があります。 

企業の経営者は、相互参照、更新の確認、専門家による正確性の確認を行わずに、Gemini からの出力を決して公開しないでください。そうしないと、誤解を招く情報を公開するリスクがあり、評判や法的結果を招く可能性があります。

セキュリティと機密性

Google (Gemini の所有者) は、プライバシー ポリシーで機密データの取り扱い方法について一切情報を提供していません。

使用法

Googleの利用規約では、Geminiで生成されたコンテンツが商業目的で使用できるかどうかについては何も述べられていない。 知的財産権などの制限 しかし、AI 生成コンテンツに特化したものはありません。

現在、ChatGPTがモデルのトレーニングに使用しているものを公表することを義務付ける法律はありません。そのため、情報源を明らかにしていないため、ChatGPTが著作権法で保護されているコンテンツを配信または処理しているかどうかはわかりません。誰かがChatGPTから著作権で保護されたコンテンツを特定した場合、 彼らは主張できる そのコンテンツを削除します。

ChatGPTの利用規約では、ユーザーの入力内容は著作権で保護されている場合でも、 サービスの改善とモデルのトレーニングに使用されます;ユーザーはこれをオプトアウトすることはできません。ChatGPTの利用規約では、ユーザーは すべての入力コンテンツと出力コンテンツを所有する(入力コンテンツがすでに合法的に使用されている場合)ただし、ユーザーがその入力および出力コンテンツの著作権を所有していることを保証するものではありません。さらに、 ユーザーは ChatGPT からの何かを「人間が生成した」ものとして偽装することはできません。

正確さと信頼性

ユーザーはChatGPTからのすべての情報を確認する必要があります。 ChatGPTは正確な情報を提供する責任を負わない。、最新のコンテンツ。保証の免責事項のセクションによると、 ユーザーは正確性に関するすべてのリスクを負う、品質、信頼性、セキュリティ、完全性。したがって、ChatGPT からの事実を常に検証し、相互参照し、更新を確認し、専門家に正確性を確認してください。ビジネス オーナーは、公開前に ChatGPT コンテンツの正確性を検証しないと、法的または評判に影響する可能性があります。 

セキュリティと機密性

ChatGPTは入力から情報を収集します(個人情報を含む) 潜在的にモデルをトレーニングするため(プライバシーポリシーに従って)ユーザーはオプトアウトすることができます。データがAPI接続(ChatGPT Enterprise、Teamなど)を介して送信されると状況が変わります。 ChatGPTはビジネス顧客からの入力を利用しない モデルをトレーニングするため。ChatGPT にはセキュリティ対策が講じられていますが、セキュリティ侵害の責任については明確に言及されていません。すべては地域の法律に依存します。 

使用法

ChatGPTユーザーは入力と出力のコンテンツを所有しますしたがって、ユーザーはコンテンツが法律に違反していないことを確認する必要があります。 ユーザーはコンテンツが人間によって生成されたものであると主張することはできないただし、AI 生成であると明記する必要もありません。ユーザーが地域の法律と利用規約に従う限り、ChatGPT のコンテンツは商業目的、ソーシャル メディア、有料広告、その他のチャネルで使用できます。ChatGPT のコンテンツを公開する前に、事実確認、参照、法律の遵守を行うことをお勧めします。 

プライバシーポリシーも利用規約も、DeepSeekのAIツールが著作権で保護された素材でトレーニングされているかどうかは明記していない。さらに、出力が誰かの著作権を侵害しないという保証も提供していない。DeepSeekの利用規約には次のように記載されている。 ユーザーは入力内容に対する権利を保持する (プロンプト) ですが、これは必ずしも著作権で保護されていることを意味するものではないため、ユーザーはプロンプトとして使用しているものが他人の知的財産でないことを確認するための措置を講じる必要があります。

利用規約には、 ユーザーはすべての入力とそれに対応する出力に責任を持つそれを念頭に置いて、ユーザーは法的助言を求めたり、著作権データベースを使用したりして、独自にこれらを確認する必要があります。たとえば、 米国著作権局公開カタログ ユーザーは米国で登録された作品を検索することができ、 Googleの逆画像検索 画像が以前に公開されたことがあるか、著作権で保護されているかどうかを確認するのに役立ちます。

正確さと信頼性

DeepSeekの利用規約では、出力はAIによって生成されるため、誤りや欠落が含まれる可能性があるとされています。 特に医療、法律、財政の問題を指す ユーザーがDeepSeekに質問する可能性のあること、そしてDeepSeekの出力がアドバイスを構成するものではないこと。しかし、より広い意味では、 「専門的な問題」についても同様だマーケティングや研究からテクノロジーや教育など、あらゆるものになり得るが、その成果は「~の意見を代表する どれか 専門分野したがって、ユーザーは DeepSeek の出力の正確性を独自に検証する必要があります。

セキュリティと機密性

DeepSeekのプライバシーポリシーでは、ユーザーの入力は出力を生成するために処理されるが、 DeepSeekのサービスを改善する。 これも 「技術の訓練と向上」 したがって、ユーザーは機密情報を入力する際に​​は注意する必要があり、DeepSeekには「商業的に合理的入力として使用されるデータや情報を保護するための対策は講じられていますが、絶対的な保証は提供していません。DeepSeekの規約では、入力や出力を公開フォーラムで公開しないと規定されていますが、 一部は第三者と共有される可能性があります.

使用法

DeepSeekを通じてユーザーが生成したコンテンツは商用利用が可能ですが、盗作や正確性に関するグレーゾーンがあるため、ユーザーはコンテンツを使用する前に検証する必要があります。DeepSeekの利用規約には、ユーザーがこのコンテンツを世界中のどこで公開できるかに関する制限は記載されていませんが、ユーザーは以下の点を明確に規定しています。 「コンテンツの合成性質について一般の人々に警告するため」、これを AI 生成であると宣言する。

Canva はトレーニング データのソースを明らかにする法的義務を負っていません。そのため、著作権で保護された素材が使用されるかどうかはわかりません。 ユーザーはすべての入力および出力コンテンツを所有します (Canvaではありません)ただし、Canvaはそのコンテンツをサービスの向上のために使用する場合があります。 

正確さと信頼性

キャンバベア コンテンツの正確性については責任を負いませんユーザーは常に事実を確認する必要があります。 

セキュリティと機密性

Canva 入力コンテンツを使用してモデルをトレーニングする。 それは 入力に機密情報や個人情報を使用しないようにすることはユーザーの責任ですCanva はモデルトレーニングのためにこのような入力をフィルタリングしようとしますが、保証はありません。Canva の AI ツールは、ユーザーによって引き起こされたセキュリティ問題については責任を負いません。

使用法

Canvaユーザーは 生成コンテンツ 商業目的では 条件ただし、出版しないなど 誤解を招くコンテンツ同社は 禁止品一覧「良い人間になろう」というタイトルのセクションにあります。

ChatGPTと同様に、DALL-Eはモデルトレーニングのソースを宣言しません。ただし、著作権で保護されたコンテンツを見つけた場合は、 削除請求を提出できるDALL-Eが著作権を侵害しているかどうかを確認するのは困難です。なぜなら、DALL-Eがデータソースを明らかにすることを義務付ける法律がないからです。利用規約によると、ユーザー入力は、 DALL-Eのモデルを訓練するために使用できる — 著作権で保護されたコンテンツであっても、ユーザーはこれをオプトアウトできます。  

DALL-E ユーザーは入力と出力のコンテンツを所有する (DALL-Eではない)しかし、ユーザーがそのコンテンツの著作権を持っているということではありません。また、ユーザーは DALL-Eコンテンツが人間によって生成されたものであると主張することはできない.

正確さと信頼性

DALL-Eベアーズ 不正確な内容については責任を負いません. 規約では、すべての責任をユーザーに委ねています。これらの責任には、コンテンツの信頼性、正確性、品質、セキュリティ、完全性が含まれます。そのため、公開する前に、 ユーザーは常に相互参照し、最新情報を確認し、事実を確認し、専門家に確認する必要があります。虚偽の情報を公表すると、評判の低下や法的影響が生じる可能性があるためです。 

セキュリティと機密性

DALL-E のプライバシー ポリシーと利用規約では、セキュリティ侵害が発生した場合の責任について明示的に言及されていません。ただし、DALL-E はセキュリティ対策を講じています。ハッキングが発生した場合の責任は、地域の法律によって異なります。

DALL-Eはモデルトレーニングのためにユーザーの入力を収集します、個人情報も含まれますが、これをオプトアウトすることもできます。ただし、API を使用すると、DALL-E は入力データを異なる方法で処理します。 ビジネスユーザーのデータを使用してモデルをトレーニングすることはない

使用法

この ユーザーはDALL-Eの入力および出力コンテンツを所有するまた、コンテンツが法律や DALL-E の利用規約に違反していないことも確認する必要があります。 DALL-Eのコンテンツが人間によって生成されたものであると主張することはできないただし、AI によって生成されたものであると言う必要もありません。 

すべての法律と DALL-E の利用規約に従う限り、DALL-E を商業目的で使用できます。規制は変更される可能性がありますが、執筆時点では、ユーザーはソーシャル メディア、広告、その他のチャネルで DALL-E コンテンツを公開できます。法律に違反しないように、ユーザーは常に適切な参照を行い、正確性を事実確認する必要があります。

Bing にはデータ トレーニング ソースを共有する義務がないため、Bing AI が著作権で保護されたコンテンツを誤って使用しているかどうかを把握するのは非常に困難です。特定するのは難しいですが、ユーザーは著作権で保護されたコンテンツに対してクレームを申し立てることができます。Microsoft サービス契約では、Bing AI がモデルを改善するためにユーザーの入力と出力を取得すると規定されていますが、知的財産の盗難を防ぐための正式な措置は講じられていません。

この サービス契約では、ユーザーはマイクロソフトにコンテンツを使用するための世界規模のロイヤリティフリーの知的財産ライセンスを付与するとしている。さらに、Bing/Microsoft ユーザー入力を受け取りAIモデルをトレーニングする.

正確さと信頼性

Microsoftはコンテンツの正確性や適時性について一切保証しません。 AI サービスからは、あらゆる事実が明らかになります。したがって、評判や法的影響を回避したい企業オーナーであれば特に、Microsoft の AI ツールから得られる情報はすべて事実確認する必要があります。 

セキュリティと機密性

Microsoft の AI ツール (Bing AI を含む) 個人情報や機密性の高いユーザーデータを使用してモデルをトレーニングする同社のサービス契約は AI 生成コンテンツには適用されず、代わりに AI コンテンツに関するすべての責任をユーザーに転嫁しようとしています。 マイクロソフトも一切の責任を負いません 顧客のプライバシーとセキュリティの実践のために。つまり、Bing AI の使用中にデータが侵害された場合、それは Microsoft の問題ではなく、お客様の問題です。  

使用法

マイクロソフトはユーザーコンテンツの所有権を主張しないしかし、所有権が不確かな AI 生成コンテンツについては特に規制していません。サービス契約では、いくつかの重要な条件付きで、コンテンツを商用目的で使用することが許可されています。AI 生成コンテンツには人間の創造性が欠けているため、知的財産として主張することはできないことを受け入れなければなりません。また、他者の知的財産権を侵害してはなりません。つまり、他者の知的財産を使用することはできませんが、Bing で作成したものは、おそらく自分の知的財産ではないということです。

クイルボットは モデルのトレーニングに使用した情報源を明らかにする義務はないしかし、同社は興味深いことに、1 つの独特な状況を規制しようとしています。それは、モデル トレーニングのソースが AI の出力である場合です。Quillbot は基本的に、著作権で保護された出力の可能性を最小限に抑えようとしていますが、ユーザーが著作権で保護されたコンテンツを入力した場合、出力が著作権で保護される可能性は依然としてあると述べています。さらに混乱を招くように、Quillbot は、ユーザーが Quillbot に無制限でサブライセンス可能なライセンスを付与すると述べながら、ユーザーがすべての出力を所有していると主張することで、すべての領域をカバーしようとしています。 

正確さと信頼性

クイルボットベア 正確性や信頼性については一切責任を負いませんユーザーは十分に注意し、Quillbot からのすべての事実を確認する必要があります。 

セキュリティと機密性

クイルボットは ユーザーのプライバシーを保護するための措置ただし、個人データを処理する可能性があります。子供のプライバシーについては特別な保護措置が講じられています。ハッキングによるデータ損失の責任はケースバイケースで処理されます。Quillbot は、ユーザーは個人データがハッキングされるのを防ぐための措置を講じる必要があり、Quillbot にはデータ保護要素が備わっていると述べています。 

使用法

Quillbotユーザーは、商用目的で生成したコンテンツを公開できますが、有害または誤解を招くコンテンツを公開しないなど、いくつかのルールに従う必要があります。Quillbotの ご利用規約 コンテンツがAIによって生成されたものであると宣言する必要があるとは言わない。要するに、 ユーザーはQuillbotによって生成されたコンテンツを公開できる 法律や権利を侵害しない限り。 

PixlrはAIモデルのトレーニングに使用したソースを公開していない。法的義務がないためだ。利用規約では、コンテンツの所有権はユーザーにあるとしているが、ユーザーは Pixlrにコンテンツの使用ライセンスを付与するこれは著作権で保護されたコンテンツの使用を最小限に抑えるための試みです。 

正確さと信頼性

Pixlrは不正確な情報について一切責任を負いません AI 生成コンテンツには、多くの問題があります。ユーザーは Pixlr から提供されるすべての情報を注意深く事実確認する必要があります。 

セキュリティと機密性

PixlrはAIモデルのトレーニングのためにユーザー入力を受け付けます。入力に注意する負担はユーザーに負わせます。 個人情報または機密情報Pixlrは、個人情報や機密情報をブロックするためにいくつかのフィルターを使用しているものの、トレーニングデータから一部の情報をフィルタリングする責任を放棄しています。Pixlrは、 ユーザーの行動によって生じたセキュリティ問題については責任を負いません

使用法

ユーザーは、Pixlr を通じて作成された AI 生成コンテンツを商用目的で公開できます (ただし、いくつかの条件が適用されます)。 利用規約 AI によって生成されたものであることを明記する必要はありません。ただし、権利や法律を侵害した場合は、ユーザーが責任を負うことになります。 

ミッドジャーニー ユーザーは、会社を通じて作成されたすべての資産に対する権利を会社に付与します。 しかし ユーザーはすべての資産を所有する例外もあります。例えば、 オリジナルクリエイターの画像を拡大しただけです.

正確さと信頼性

Midjourneyは信頼性と正確性について一切の責任を負いません。 したがって、ユーザーは事実を確認し、信頼性を確認するために細心の注意を払う必要があります。 

セキュリティと機密性

Midjourneyは、ユーザー入力を含む場合でも、モデルをトレーニングします。 個人情報または機密データMidjourney は、ユーザーは機密データの取り扱いには注意する必要があるため、これは彼らの問題ではないと主張しています。同社はモデルのトレーニングのために特定の情報を除外しようとしていますが、これは必須ではありません。Midjourney は、ユーザーの行動によって発生する可能性のあるセキュリティ問題については一切責任を負わないと主張しています。 

使用法

Midjourneyユーザーは、作成したコンテンツを商業目的で公開することができます。Proバージョンへの登録が必要であるなど、いくつかの条件があります。 会社が年間1​​XNUMX万ドル以上の利益を上げている場合が適用されます。執筆時点では、これを変更する法律が制定されつつあるにもかかわらず、ユーザーは Midjourney から AI によって生成されたものであると主張する必要はありません。ユーザーは、権利や法律に違反しない限り、Modjourney のコンテンツを一般に使用できます。 

Clipchampはマイクロソフトの製品であるため、モデルトレーニング用のデータソースを共有する義務はないと主張しています。したがって、AIツールが著作権で保護されたデータを誤って使用しているかどうかを判断するのは困難です。クレームを申し立てるには誰かが著作権侵害を特定する必要がありますが、それはありそうにありません。マイクロソフトのサービス契約では、 ユーザーの入力と出力を利用してサービスを改善できるマイクロソフトは知的財産権に関する規制を行っていません。また、 ユーザーはマイクロソフトに世界規模のロイヤリティフリーの知的財産ライセンスを付与します

正確さと信頼性

Clipchampとマイクロソフト AIツールの正確性や適時性に関して一切保証しないしたがって、ユーザーは公開前にすべての事実を確認する必要があります。これは、法的および評判上の結果に直面する可能性のあるビジネスオーナーに特に当てはまります。 

セキュリティと機密性

Clipchampとマイクロソフト モデルのトレーニングに個人情報や機密データを使用するMicrosoft は、すべてのコンテンツの問題に対する責任をユーザーに転嫁しようとしています。 ハッキングやセキュリティ侵害についても同様である; 何か起こった場合はユーザーの責任となります。 

使用法

ClipchampとMicrosoftはAI生成コンテンツの規制を避けているが、 マイクロソフトがコンテンツを所有しているとは決して主張しない技術的には、Microsoft は、ユーザーが所有するものの、知的財産権は持たないと述べています。ユーザーは、知的財産権を侵害しないこと、および生成されたコンテンツに対して知的財産権があると主張しないことという 2 つの条件を満たせば、Clipchamp コンテンツを商用目的で公開できます。 

ルッカ ご利用規約 同社はデータトレーニングソースを共有する義務を負っていないため、共有していません。Looka が生成したコンテンツを使用する際は、ユーザーがすべてのリスクを負うことになります。 

正確さと信頼性

Looka は、AI ツールからの出力の正確性および信頼性について一切の責任を負いません。 ユーザーはすべての事実を確認する必要があります 信頼性を確認します。 

セキュリティと機密性

Lookaは、モデルをトレーニングするために、個人情報や機密情報を含む入力データを使用します。 したがって、ユーザーは入力時にこのタイプのデータを使用しないようにする責任があります。 Looka はそのようなデータをフィルタリングしようとしますが、そうする必要はないと主張しています。さらに、すべてのセキュリティ問題はユーザーの負担になります。 

使用法

LookaユーザーはAI生成コンテンツを商業目的で使用できますが、条件に従う必要がある場合があります。 料金を支払うユーザーは、生成したコンテンツに AI 生成のラベルを付ける必要はありません。ユーザーは、権利や法律に違反する生成コンテンツの公開を避ける必要があります。 

Speechifyが モデルをトレーニングする 著作権で保護された素材について。私たちにはわかりません。Speechifyの利用規約では、著作権で保護された素材を入力に使用しないことを推奨しており、一部の出力には著作権で保護されたデータが含まれている可能性があります。Speechify これについて一切の責任を負わないと主張する

正確さと信頼性

Speechifyによると、 ご利用規約は、出力の正確性について一切の責任を負いません。ユーザーは常に Speechify の適時性、信頼性、正確性を確認する必要があります。 

セキュリティと機密性

話す 機密データや個人情報の入力に関しては、すべての責任をユーザーに委ねます。このツールはモデルをトレーニングするために入力を使用するため、ユーザーは注意する必要があります。Speechify は必ずしも機密データや個人データをフィルタリングする必要はありませんが、いくつかのフィルターを使用してフィルタリングしようとします。セキュリティ問題に関するすべての責任はユーザーに移ります。 

使用法

Speechifyユーザーは 商用目的での出力には、サブスクリプションやライセンスの取得などの条件があります。。 ユーザー SpeechifyコンテンツがAI生成であることを宣言する必要はないただし、Speechify ユーザーは、Speechify 出力を公開する際に、決して権利や法律に違反してはなりません。 

カプウィング 規約はすべての知的財産権と正確性の責任をユーザーに課しますすべてのユーザーはKapwingに非独占的ライセンスを付与しますが、 ユーザーはコンテンツの所有権を保持するKapwing は、モデルのトレーニングに入力データを使用するかどうかについては何も明らかにしていません。 

正確さと信頼性

カプウィング すべての正確性の責任をユーザーに負わせる特に、法的および評判への影響について責任を負いません。

セキュリティと機密性

Kapwing のユーザーは、AI ツールに機密情報を入力することを選択する際、すべてのリスクを負うことになります。また、サービスのセキュリティに関して保証や責任は一切ありません。

使用法

Kapwing のコンテンツを商業的に公開することは可能ですが、Kapwing はユーザーに注意を促しています。利用規約には、ユーザーが Kapwing からの出力が AI によって生成されたものであると宣言する必要があるかどうかは記載されていません。

Otter.ai は、自社のサービス内で著作権を侵害する素材を許可していないと述べているが、この主張を検証するのは困難である。 ユーザーは入力内容の所有権と著作権を保持する Otter.aiに投稿しますが、Otter.aiは ユーザーは責任を負う for 著作権で保護されたコンテンツを入力しない. オッター.ai 機械学習の入力も使用する可能性がある.

正確さと信頼性

Otter.ai は正確性および信頼性に関して一切の責任を負いませんので、ユーザーは常にコンテンツを確認する必要があります。事実に反する、または不正確な情報を使用すると、ユーザーに法的または評判上の問題を引き起こす可能性があります。 

セキュリティと機密性

機密情報が漏洩するリスク Otter.ai 上のコンテンツはユーザーに帰属します。 

使用法

ユーザーは商業目的で公開できる ユーザーはコンテンツの所有者であるため Otter.aiより。とはいえ、AIが生成したコンテンツには明確な所有権のルールはない。Otter.aiは次のように述べている。 書き起こされたメモは検索したり共有したりできる.

PhotoRoom はモデルのトレーニングのためにユーザーの入力と出力を受け取ることができますが、サービスがそれを実行するかどうかに関する情報は限られています。PhotoRoom の利用規約では、著作権で保護されたコンテンツの入力を避けるようユーザーに注意を促しています。 ユーザーはすべての責任を負う このため。 

正確さと信頼性

フォトルーム AI生成コンテンツの正確性や信頼性については一切責任を負いません。ユーザーは独自のチェックを実行してこれを検証する必要があります。

セキュリティと機密性

PhotoRoom は入力を使用してモデルをトレーニングします。 機密情報を入力する際はユーザーの責任となります or 個人情報サービスはこれらのタイプの入力をフィルタリングしようとしますが、そうする義務はありません。セキュリティの問題に対する責任はすべてユーザーにあります。 

使用法

PhotoRoomコンテンツ 商業目的で使用できますただし、サブスクリプションへのサインアップなど、いくつかの条件が適用される場合があります。利用規約では、コンテンツを AI 生成としてマークする必要はないと規定されています。ユーザーが権利や法律に違反した場合、他の影響が及ぶ可能性があります。 

免責事項

この情報は一般的な情報提供のみを目的としており、法的助言として受け取られるべきではありません。Ecommerce Platforms は、誤りや省略について一切の責任を負いません。特定のニーズや状況に合わせたアドバイスやガイダンスについては、適切な法律専門家にご相談ください。

まとめ

AI が普及したことにより、このテクノロジーをベースにしたツールやアプリを私たち全員が使用することがますます増えていますが、利用規約を読むのに必要な時間的余裕がない人が大勢います。 

2017年、プロフェッショナルサービスネットワーク デロイト あれを見つけた 消費者の91% 「法的条件を読まずに進んで受け入れる」 97歳から18歳の間では34%に上昇します。

読みやすさスコアが低いと評価したAI利用規約の数を考えると、 これらの文書の法律用語の難解さにより、ユーザーはそれを理解しようとすることすら躊躇してしまいます。 

私たちは法律の専門家と協力して文書を解析しましたが、それが本当に必要なのかは疑問です。

この調査(読みやすさの評価や、留意すべき利用規約に関する Josilda Ndreaj の専門知識を含む)が、どの AI アプリやツールを利用するかの選択に役立つことを願っています。 

方法論と情報源

研究の進め方

約 90 個の AI ツールとアプリのシード リストから始めて、まず利用規約からプライバシー ポリシーまで、各ツールの法的文書を収集しました。次に、これらの文書の文字数を記録し、Flesch-Kincaid の評価システムを使用して読みやすさスコアを計算しました。次に、法律の専門家である Josilda Ndreaj (LLM) の協力を得て、これらの法的文書の一部をレビューし、ユーザーが知っておくべき重要なポイントを特定しました。

モバイル アプリ版が利用できる AI ツール約 30 個について、Apple App Store でそれぞれを検索し、リストに表示されるプライバシー ラベルを記録しました。これらは、ユーザーから収集できるデータの 14 のカテゴリとその目的に分かれています。どの AI アプリが最も多くのデータを収集したかを計算するために、これらのアプリがユーザーを追跡した 14 のカテゴリの数を測定しました。 

これらの 14 のカテゴリは、さらに個別のデータ ポイントに分割されていることに留意してください。たとえば、「連絡先情報」には、「名前」、「メール アドレス」、「電話番号」、「住所」、「その他のユーザーの連絡先情報」という XNUMX つのデータ ポイントが含まれます。どのアプリが最も多くの個別のデータ ポイントを収集しているかを確認するには、各表の最後の列を確認してください。

一部のアプリは、ランキングの上位に表示されるアプリよりも多くの個別データ ポイントを収集します。これは、当社のランキング手法では、各カテゴリで収集される情報の深さではなく、全体的に最も多くのカテゴリでデータを収集するアプリが考慮されるため、ユーザー データのより広範でより「完全な」全体像が示されるためです。 

ソース

訂正依頼

この調査は定期的に更新されます。

この調査に含まれる AI ツールのいずれかの所有者であり、このページの情報に異議を唱えたい場合は、提供された証拠を検討した上で更新いたします。この点についてお問い合わせいただく際には、以下の点をお知らせください。 

  • 正当性を証明するビジネス文書(法人設立証明書や登録文書など) 
  • このページの情報が古いと思われる場合(具体的にご記入ください)
  • 更新方法とその理由、およびそれを裏付ける文書へのリンク(例:利用規約の修正)

連絡先: [メール保護] 件名に「訂正依頼: AI ツールの調査」と記入し、お問い合わせの対象となる AI ツールの名前を添えてください。

ボグダン・ランセア

Bogdan Ranceaは、Ecommerce-Platforms.comの共同設立者であり、最高のeコマースウェブサイトを紹介するecomm.designの主任キュレーターです。デジタルコマースの分野で12年以上の経験を持つ彼は、豊富な知識と優れたオンライン小売体験に対する鋭い目を持っています。eコマース技術の探検家として、Bogdanは次のようなさまざまなプラットフォームやデザインツールをテストし、レビューしています。 Shopify、Figma、Canva を詳しく紹介し、店舗オーナーやデザイナーに実用的なアドバイスを提供します。