Au-delà des petits caractères : comprendre les applications d'IA et la confidentialité

Si vous vous abonnez à un service à partir d'un lien sur cette page, Reeves and Sons Limited peut gagner une commission. Voir notre déclaration éthique.

L’intelligence artificielle est rapidement devenue partie intégrante de l’air du temps contemporain — mais les considérations éthiques autour du sujet restent sans réponse. Combien d’utilisateurs sont pleinement conscients de ce à quoi ils s’engagent ?

Ici, en se concentrant sur les termes et conditions et les politiques de confidentialité des outils et applications d'IA les plus populaires, Ecommerce Platforms dévoile ce que vous devez savoir lorsque vous utilisez ces outils pour vos besoins commerciaux quotidiens.

Nous avons analysé les données et les informations personnelles collectées par ces outils (et à quelle fin) pour vous aider à déterminer lesquelles des outils d'IA, les logiciels et les plateformes sont les plus adaptés à l'utilisation que vous souhaitez en faire. Nous avons également consulté un expert juridique pour décrypter le jargon derrière les termes et conditions de ces outils.

Nous avons analysé les étiquettes de confidentialité de l'App Store d'Apple pour environ 30 versions d'applications mobiles disponibles d'outils d'IA populaires afin de comprendre lesquelles collectent vos données et pourquoi. 

Les données collectées auprès des utilisateurs (et leur finalité) sont divisées en 14 catégories, permettant d'établir quelles applications collectent et suivent le plus de données utilisateur.

Pour plus de détails, consultez la section méthodologie à la fin de cette page.

Quelles données ces applications d’IA collectent-elles ?

Les outils d’IA évalués dans cette recherche collectent des données de différents types. Certains d’entre eux se concentrent sur les données personnelles des utilisateurs. — depuis leurs noms d’écran et leurs coordonnées bancaires jusqu’à leur santé et leur forme physique, et même des informations sensibles telles que leur race/appartenance ethnique, leur orientation sexuelle, leur identité de genre et leurs opinions politiques. 

D'autres concernent le contenu créé par les utilisateurs (comme les e-mails et les messages, les photos, les vidéos et les enregistrements sonores), ou la façon dont les utilisateurs interagissent avec le produit lui-même, comme leur historique de recherche dans l'application ou les publicités qu'ils ont vues. Plus impersonnelles encore sont les informations de diagnostic collectées pour afficher les données de panne ou la consommation d'énergie.

Pourquoi ces applications d’IA collectent-elles des données ?

Il y a différentes raisons pour lesquelles les applications collectent des données, dont certains peuvent être considérés comme plus justifiables que d’autres — par exemple, la biométrie ou les informations de contact peuvent être utilisées pour authentifier l’identité de l’utilisateur.

De même, l’accès à certaines données peut être nécessaire au bon fonctionnement d’une application, notamment pour prévenir la fraude ou améliorer l’évolutivité et les performances.

Plus précisément, les applications de messagerie ont besoin d'accéder aux contacts, aux caméras des téléphones et aux microphones pour autoriser les appels, tandis que la géolocalisation est nécessaire pour les applications de taxi ou de livraison.

Parmi les raisons moins essentielles de collecter des données, on peut citer : publicité ou marketing par le développeur de l'application (par exemple, pour envoyer des communications marketing à vos utilisateurs) ; activation de la publicité par des tiers (en suivant les données d'autres applications pour diriger des publicités ciblées vers l'utilisateur, par exemple) ; et analyse du comportement de l'utilisateur à des fins telles que l'évaluation de l'efficacité des fonctionnalités existantes ou la planification de nouvelles fonctionnalités.

Applications d'IA qui collectent vos données pour les partager avec des annonceurs tiers

Les en-têtes de colonnes avec des boutons sont triables.
Application IA % de données partagées avec d'autres Historique de navigation Contactez-nous Identifiants Emplacement Autre informations Achats Historique de recherche Données d’utilisation Nombre de points de données collectés
canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Assistant Google 21% 1 1 1 3
Bing 14% 1 1 2
Pixaï 14% 1 1 2
ventre 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Lentille 7% 1 1
Speechify 7% 1 1
starryai 7% 1 1

De toutes les applications d’IA incluses dans notre recherche, Canva, un outil de conception graphique, collecte la plupart des données de ses utilisateurs à des fins publicitaires tierces — environ 36 %. En revanche, les cinq applications qui collectent le moins de données à cette fin en recueillent un peu plus de 7 %.

Les données que l'application Canva collecte auprès de vous et partage avec des tiers incluent votre historique de recherche, votre localisation, votre adresse e-mail et d'autres informations présentées dans le tableau ci-dessus. 

Canva suit de près l'application d'apprentissage des langues gamifiée Duolingo (~36%), Assistant Google (~21 %), et Bing de Microsoft (~14 %) — dont la totalité nous partageons également vos données avec des tiers

Parmi les cinq applications qui collectent le moins de données, seule étoilé (un générateur d'images) se limite uniquement au partage des données d'utilisation.

Des applications d'IA qui collectent vos données à leur propre profit

Les en-têtes de colonnes avec des boutons sont triables.
 Application % de données collectées pour le bénéfice propre de l'application Historique de navigation Contactez-nous Identifiants Emplacement Achats Historique de recherche Données d’utilisation Nombre de points de données collectés
canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Alexa d'Amazon 36% 4 2 1 1 2 10
Assistant Google 36% 1 2 2 1 2 8
Salle Photo 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
Bing 14% 1 1 2
Lentille 14% 1 1 2
Loutre 7% 2 2
yupper 7% 1 1
Poe 7% 1 1
Pixaï 7% 1 1
Speechify 7% 1 1
ventre 7% 1 1

Canva est également en tête du classement des applications d'IA collectant des données utilisateur à des fins publicitaires ou marketing.Pour ce faire, Canva collecte environ 43 % des données de leurs utilisateurs.

En troisième place, Amazon Alexa récolte 36% de vos données pour la même finalité. Cela comprend votre adresse e-mail, votre adresse physique, votre numéro de téléphone, votre historique de recherche et votre historique d'achat, ainsi que cinq autres points de données. Assistant Google collecte et partage le même pourcentage de données pour cette raison, bien que sur huit points de données individuels, par rapport aux dix collectés par Amazon Alexa.

L' Le générateur de voix de synthèse vocale, Speechify, fait partie des applications qui collectent le moins de données. Selon les étiquettes de confidentialité de sa fiche sur l'App Store d'Apple, Speechify collecte un seul point de données pour son propre bénéfice ; l'identifiant de votre appareil.

Applications d'IA qui collectent vos données à toutes fins

Les en-têtes de colonnes avec des boutons sont triables.
 Application % de données collectées Historique de navigation Contactez-nous Contacts Diagnostics Informations financières Santé et Mise en Forme Identifiants Emplacement Autre informations Achats Historique de recherche Informations sensibles Données d’utilisation Le Contenu Généré par l'Utilisateur Nombre de points de données collectés
Alexa d'Amazon 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Assistant Google 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
canva 64% 11 3 1 8 5 4 5 10 6 53
Loutre 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
Recherche profonde 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA parle 43% 2 6 6 3 3 3 23
Salle Photo 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
IA perplexité 36% 6 6 2 1 6 21
1/2

Tous les modèles d’IA nécessitent une certaine forme de formation par l’apprentissage automatique, ce qui signifie que ils ont besoin de données.

Si nous voulons que les outils d’IA s’améliorent et deviennent plus utiles, notre vie privée peut être considérée comme un compromis nécessaire contre la fourniture de ces données.

Cependant, la question de savoir où la frontière entre l'utilité et l'exploitation devrait être dessiné, et pourquoi, est une question épineuse.

Compte tenu de sa notoriété actuelle, il vaut la peine de s'intéresser à DeepSeekSon inscription sur l'App Store d'Apple indique que DeepSeek ne collecte pas de données utilisateur pour son propre bénéfice (par exemple, le marketing et la publicité de DeepSeek) ou pour les partager avec des tiers.

Mais il convient de souligner que leur La politique de confidentialité stipule le contraire (plus à ce sujet plus tard). 

L' L'application DeepSeek collecte elle-même 50 % des données de ses utilisateurs, qui sert les fonctionnalités d'analyse et d'application de DeepSeek. À titre de comparaison, L'application ChatGPT collecte 36%.

Certains médias font état de préoccupations concernant les risques de sécurité liés aux origines chinoises de DeepSeek (tant en termes de collecte de données que de diffusion possible de fausses informations) et à la concurrence des rivaux américains. Il est peu probable que ces deux problèmes soient atténués par Conditions générales et politique de confidentialité de DeepSeek, ce qui prendrait environ 35 minutes de lecture, et sont classés comme "très difficile" sur l'échelle de lisibilité Flesch-Kincaid.

Quelle que soit la manière dont vos données sont utilisées, Amazon Alexa collecte plus de données de ses utilisateurs que toute autre application d'IA inclus dans cette recherche. Dans l'ensemble, il recueille 93% de vos données (ou 116 mesures individuelles, principalement les informations de contact, le contenu utilisateur et les données d'utilisation).

Assistant Google vient ensuite, en collectant 86%, Suivie par Duolingo, qui collecte 79%.

À l'autre extrémité de l'échelle, Générateur d'images AI, Stable Diffusion, ne collecte aucune donnéeC'est ce que disent les étiquettes de confidentialité figurant sur sa fiche sur l'App Store d'Apple.

S'il est vrai que tout IA générative Les modèles nécessitent une quantité massive de données pour être formés, et cette formation a lieu avant le développement d'applications spécifiques. Dans la plupart des cas, les créateurs d'applications ne sont pas propriétaires des modèles d'IA qu'ils utilisent ; la collecte de données utilisateur est donc liée à la fonctionnalité de l'application elle-même. Cela peut expliquer pourquoi certaines des applications que nous avons étudiées ne contiennent aucune information dans le tableau ci-dessus.

Naviguer dans les termes et conditions des outils d'IA

Maintenant, regardons le documentation juridique derrière les différents outils d'IA pour découvrir à quel point ils sont faciles ou difficiles à lire. Ceci est basé sur le test de niveau de lecture Flesch-Kincaid.

Ce système associe les textes aux niveaux de lecture des écoles américaines (de la cinquième à la terminale), puis des collèges, des cycles supérieurs et des professionnels. Les textes de niveau sixième sont définis comme « anglais conversationnel pour les consommateurs », tandis que les textes de niveau professionnel sont décrits comme « extrêmement difficiles à lire ».

Plus le score de lisibilité est bas, plus le texte est difficile à lire.

Les en-têtes de colonnes avec des boutons sont triables.
Clipchamp 3 Heures 16 minutes 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 Heures 20 minutes 35.4 🤯🤯🤯🤯🤯
veed.io 2 Heures 15 minutes 37.9 🤯🤯🤯🤯🤯
Facetune 2 Heures 4 minutes 34.4 🤯🤯🤯🤯🤯🤯
LeB.AI 1 Heures 47 minutes 31.4 🤯🤯🤯🤯🤯🤯
Loutre 1 Heures 11 minutes 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 Heures 9 minutes 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
La Gamme 1 Heures 6 minutes 30.9 🤯🤯🤯🤯🤯🤯
Speechify 1 Heures 6 minutes 35.0 🤯🤯🤯🤯🤯🤯
Runway 1 Heures 2 minutes 28.3 🤯🤯🤯🤯🤯🤯🤯
1/9

En 2023, la compagnie d'assurance commerciale britannique Superscript a interrogé les propriétaires de 500 petites et moyennes entreprises (PME) pour découvrir ce qui leur prend le plus de temps.

De manière révélatrice, « dormir suffisamment » – essentiel pour la santé physique et mentale et les fonctions cognitives – arrive en troisième position, derrière « travailler de longues heures » et « trier les déclarations d’impôts ».

Un tiers des personnes interrogées estiment qu'il n'est pas possible de réaliser toutes leurs tâches administratives pendant les heures de travail, et ont dit qu'ils il fallait quatre heures supplémentaires par jour pour tout faire.

Cela donne une idée de la difficulté que peut représenter la gestion d’une PME. temps nécessaire pour lire les termes et conditions Derrière les outils sur lesquels ils s'appuient se trouve pas facile à trouver.

Dans ce contexte, les temps de lecture de 40 minutes des CGU des outils de transcription comme Otter, Trint et Descript sont très importants. 

Et c'est en supposant qu'il soit possible de comprendre les conditions générales les plus difficiles à lire. C'est pourquoi nous avons fait appel à l'expertise d'un expert juridique.

Josilda Ndreaj, un professionnel du droit et avocat agréé, a géré des questions juridiques complexes au nom de clients Fortune 500 et a fourni des conseils à diverses sociétés.

Plus récemment, en tant que consultante indépendante, elle a axé sur le droit de la propriété intellectuelle à l'intersection de la technologie blockchain et de l'intelligence artificielle.

Josilda Ndreaj (LLM) est une professionnelle du droit et une avocate agréée possédant une expertise en droit de la propriété intellectuelle (PI).

Sa carrière de consultante juridique a débuté dans un prestigieux cabinet d'avocats international, au service de clients Fortune 500. Ici, Josilda a géré des questions juridiques complexes et a fourni des conseils à différentes entreprises.

Motivée par son intérêt pour l'innovation, la créativité et les technologies émergentes, Josilda s'est ensuite lancée dans le conseil indépendant et s'est concentrée sur le droit de la propriété intellectuelle, en couvrant l'intersection avec la technologie blockchain et l'intelligence artificielle.

Josilda est titulaire de deux maîtrises en droit, l'une spécialisée en droit civil et commercial de l'Université de Tirana, et l'autre axée sur le droit de la propriété intellectuelle, de l'Université d'économie et de droit de Zhongnan.

En tant que telle, Josilda était particulièrement bien placé pour examiner une sélection de documents juridiques de ces outils d'IA, en tirant les points clés au profit de ceux d'entre nous qui ne sont pas titulaires de deux maîtrises en droit.

Ses résumés sont présentés ci-dessous :

Gemini (anciennement Bard) n'a aucune obligation de déclarer les sources de formation, nous ne pouvons donc pas vérifier si elle est formée sur des documents protégés par le droit d'auteur. Gemini n'est pas exclu de la responsabilité d'une telle violation ; si un titulaire de droits d'auteur porte plainte, Gemini porte une certaine responsabilité. Mais il est important de noter que Gemini est formé sur ce que l'utilisateur lui donne. Pour cela, Gemini nécessite une licence de l'utilisateurSi l'utilisateur accepte d'accorder cette licence à Gemini, mais qu'il (l'utilisateur) ne possède pas réellement le droit d'auteur, la responsabilité incombe à l'utilisateur.

Les utilisateurs conservent la propriété de leurs entrées et de leurs invites, mais la propriété du résultat est plus complexe. Gemini ne l'indique pas clairement dans ses conditions générales. De nombreuses législations ne reconnaissent pas les droits de propriété intellectuelle des machines. Il est cependant discutable de prétendre que le résultat est « généré par l'homme », même si l'utilisateur est propriétaire de l'entrée.

Précision et fiabilité

Faites toujours preuve de discrétion lorsque vous vous fiez à Gemini pour obtenir des informations précises. Les conditions d'utilisation stipulent que l'exactitude ne doit pas être automatiquement présumée par l'utilisateur. Par conséquent, vous devez vérifier tous les contenus générés par Gemini. 

Les propriétaires d'entreprise ne doivent jamais publier un résultat de Gemini sans l'avoir vérifié auprès d'experts, l'avoir vérifié pour les mises à jour et l'avoir vérifié auprès d'experts. Dans le cas contraire, ils courent le risque de publier des informations trompeuses, ce qui peut avoir des conséquences sur leur réputation ou sur le plan juridique.

Sécurité et confidentialité

Google (le propriétaire de Gemini) ne fournit aucune information dans sa politique de confidentialité sur la manière dont il traite les données confidentielles.

Utilisation

Google ne précise pas dans ses conditions d'utilisation si le contenu généré par Gemini peut être utilisé à des fins commerciales. Il explique restrictions pour des choses comme les droits de propriété intellectuelle mais rien spécifiquement pour le contenu généré par l'IA.

Actuellement, aucune législation n'oblige ChatGPT à déclarer publiquement sur quoi son modèle est formé. Ainsi, comme il ne révèle pas ses sources, nous ne pouvons pas savoir si ChatGPT fournit ou traite du contenu protégé par les lois sur le droit d'auteur. Si quelqu'un identifie du contenu protégé par le droit d'auteur provenant de ChatGPT, ils peuvent faire une réclamation pour supprimer ce contenu.

Les conditions générales de ChatGPT stipulent que les entrées des utilisateurs, même si elles sont protégées par des droits d'auteur, est utilisé pour améliorer le service et former le modèle; et l'utilisateur ne peut pas se retirer de cette option. Les conditions générales de ChatGPT stipulent qu'un utilisateur possède tout le contenu d'entrée et de sortie (si le contenu d'entrée est déjà utilisé légalement), mais cela ne garantit pas que l'utilisateur possède les droits d'auteur sur ce contenu d'entrée et de sortie. De plus, les utilisateurs ne peuvent pas faire passer quoi que ce soit de ChatGPT comme étant « généré par l'homme ».

Précision et fiabilité

Les utilisateurs doivent vérifier toutes les informations de ChatGPT. C'est parce que ChatGPT n'assume aucune responsabilité quant à la fourniture d'informations exactes, contenu à jour. Selon sa section Clause de non-garantie, l'utilisateur assume tous les risques d'exactitude, qualité, fiabilité, sécurité et exhaustivité. Par conséquent, vérifiez toujours les faits sur ChatGPT ; recoupez-les, vérifiez les mises à jour et vérifiez également l'exactitude auprès des experts. Les propriétaires d'entreprise peuvent faire face à des conséquences juridiques ou à des atteintes à leur réputation s'ils ne vérifient pas l'exactitude du contenu de ChatGPT avant publication. 

Sécurité et confidentialité

ChatGPT collecte des informations à partir des entrées — y compris des informations personnelles — pour potentiellement entraîner ses modèles (conformément à la politique de confidentialité). L'utilisateur peut se désinscrire. La situation change si les données sont soumises via des connexions API (ChatGPT Enterprise, Team, etc.) ; c'est parce que ChatGPT n'utilise pas les données des clients professionnels pour former des modèles. ChatGPT a mis en place des mesures de sécurité, mais n'aborde pas explicitement la responsabilité en cas de faille de sécurité. Tout dépend des lois régionales. 

Utilisation

Les utilisateurs de ChatGPT sont propriétaires de leur contenu d'entrée et de sortie; les utilisateurs doivent donc s'assurer que le contenu ne viole aucune loi. Les utilisateurs ne peuvent pas prétendre que le contenu est généré par l'homme, mais vous n'êtes pas non plus obligé de dire qu'il est généré par l'IA. Tant que les utilisateurs respectent les lois régionales et les conditions d'utilisation, le contenu de ChatGPT peut être utilisé à des fins commerciales, sur les réseaux sociaux, pour la publicité payante et d'autres canaux. Il est conseillé de vérifier les faits, de faire des références et de respecter les lois avant de publier du contenu de ChatGPT. 

Ni la politique de confidentialité ni les conditions générales ne précisent si l'outil d'IA de DeepSeek a été formé sur des documents protégés par le droit d'auteur. De plus, elles ne garantissent pas que les résultats ne porteront pas atteinte aux droits d'auteur de quiconque. Les conditions d'utilisation de DeepSeek stipulent que les utilisateurs conservent les droits sur leurs entrées (invites), mais cela n'implique pas nécessairement qu'elles soient protégées par le droit d'auteur en premier lieu, les utilisateurs doivent donc prendre des mesures pour s'assurer que ce qu'ils utilisent comme invites n'est pas la propriété intellectuelle de quelqu'un d'autre.

Les Conditions stipulent également explicitement que le l'utilisateur est responsable de toutes les entrées et des sorties correspondantes, dans cette optique, les utilisateurs doivent les vérifier de manière indépendante en demandant un avis juridique et/ou en utilisant des bases de données sur les droits d'auteur. Par exemple, Catalogue public du Bureau américain des droits d'auteur permet aux utilisateurs de rechercher des œuvres enregistrées aux États-Unis, tandis que Recherche d'images inversée de Google permet de vérifier si une image a déjà été publiée ou protégée par le droit d'auteur.

Précision et fiabilité

Les conditions d'utilisation de DeepSeek stipulent que les résultats sont générés par l'IA et peuvent donc contenir des erreurs et/ou des omissions. fait spécifiquement référence aux problèmes médicaux, juridiques et financiers que les utilisateurs peuvent demander à DeepSeek, et que les résultats de DeepSeek ne constituent pas des conseils. Mais plus généralement, il dit la même chose à propos des « problèmes professionnels », qui pourrait être à peu près n'importe quoi — du marketing et de la recherche à la technologie et à l'éducation et au-delà — et dont les résultats ne sont pas «représenter les opinions de tout Domaine professionnel. Les utilisateurs doivent donc vérifier indépendamment l'exactitude de toutes les sorties de DeepSeek.

Sécurité et confidentialité

La politique de confidentialité de DeepSeek explique que les entrées des utilisateurs sont traitées pour générer des sorties, mais également pour améliorer le service de DeepSeek. Ceci comprend « former et améliorer [leur] technologie ». Les utilisateurs doivent donc être prudents lorsqu'ils saisissent des informations sensibles, et même si DeepSeek a «commercialement raisonnable" Bien que des mesures soient en place pour protéger les données et les informations utilisées comme entrées, il ne fournit aucune garantie absolue. Les conditions de DeepSeek stipulent qu'ils ne publient pas d'entrées ou de sorties dans des forums publics, mais certains peuvent être partagés avec des tiers.

Utilisation

Tout contenu généré par les utilisateurs via DeepSeek peut être utilisé à des fins commerciales, mais en raison des zones grises autour du plagiat et de l'exactitude, les utilisateurs doivent prendre des mesures pour vérifier le contenu avant de l'utiliser de cette manière. Les conditions d'utilisation de DeepSeek ne font référence à aucune limitation concernant l'endroit où les utilisateurs peuvent publier ce contenu dans le monde, mais elles indiquent clairement que les utilisateurs doivent déclarer qu'il est généré par l'IA « pour alerter le public sur la nature synthétique du contenu ».

Canva n'est pas légalement tenu de révéler ses sources de données de formation. Par conséquent, nous ne savons pas si du matériel protégé par le droit d'auteur est utilisé. L'utilisateur possède tout le contenu d'entrée et de sortie (pas Canva), mais Canva peut utiliser ce contenu pour améliorer ses services. 

Précision et fiabilité

Ours en toile Aucune responsabilité quant à l'exactitude du contenuL'utilisateur doit toujours vérifier les faits. 

Sécurité et confidentialité

canva utilise le contenu d'entrée pour entraîner son modèle. C'est le responsabilité de l'utilisateur d'éviter d'utiliser des informations confidentielles ou personnelles pour les saisies. Canva essaie de filtrer ces entrées pour la formation du modèle, mais il n'y a aucune garantie. L'outil d'IA de Canva n'est pas responsable des problèmes de sécurité causés par l'utilisateur.

Utilisation

Les utilisateurs de Canva peuvent utiliser contenu généré à des fins commerciales. Il y a conditions, cependant, comme ne pas publier contenu trompeur. La société dispose d'un liste des objets interdits, dans une section intitulée « Soyez un bon être humain ».

Tout comme ChatGPT, DALL-E ne déclare pas les sources de son modèle d'entraînement. Si, toutefois, vous trouvez du contenu protégé par des droits d'auteur, vous peut soumettre une demande de suppressionIl est difficile de vérifier si DALL-E enfreint un droit d'auteur car aucune législation n'oblige DALL-E à révéler ses sources de données. La saisie de l'utilisateur, conformément aux Conditions, peut être utilisé pour entraîner le modèle DALL-E — même s'il s'agit d'un contenu protégé par des droits d'auteur. L'utilisateur peut choisir de ne pas le faire.  

DALL-E les utilisateurs possèdent leur propre contenu d'entrée et de sortie (pas DALL-E), mais cela ne signifie pas que l'utilisateur a un droit d'auteur sur ce contenu. De plus, les utilisateurs on ne peut pas prétendre que le contenu de DALL-E est généré par l'homme.

Précision et fiabilité

Les ours DALL-E aucune responsabilité pour le contenu inexact. Ses conditions générales transfèrent toute responsabilité à l'utilisateur. Ces responsabilités comprennent la fiabilité, l'exactitude, la qualité, la sécurité et l'exhaustivité du contenu. Par conséquent, avant de publier, les utilisateurs doivent toujours effectuer des références croisées, consulter les mises à jour, vérifier les faits et consulter des experts, car la publication de fausses informations peut entraîner des répercussions sur la réputation ou des répercussions juridiques. 

Sécurité et confidentialité

La politique de confidentialité et les conditions générales de DALL-E ne mentionnent jamais explicitement la responsabilité en cas de faille de sécurité. DALL-E a toutefois mis en place des mesures de sécurité. La responsabilité en cas de piratage dépend des lois régionales.

DALL-E collecte les données d'un utilisateur pour la formation du modèle, même des informations personnelles, mais vous pouvez vous y opposer. Avec l'API, cependant, DALL-E gère les données d'entrée différemment ; il n'utilise pas les données des utilisateurs professionnels pour former ses modèles

Utilisation

L' l'utilisateur possède le contenu d'entrée et de sortie de DALL-E; ils doivent également s'assurer que le contenu ne viole aucune loi ni les conditions d'utilisation de DALL-E. Vous ne pouvez pas prétendre que le contenu de DALL-E est généré par l'homme, mais vous n’êtes pas obligé de dire qu’il est généré par l’IA. 

Vous pouvez utiliser DALL-E à des fins commerciales, à condition de respecter toutes les lois et les conditions d'utilisation de DALL-E. Les réglementations peuvent changer, mais au moment de la rédaction de cet article, les utilisateurs sont invités à publier du contenu DALL-E sur les réseaux sociaux, dans des publicités et sur d'autres canaux. Les utilisateurs doivent toujours faire des références appropriées et vérifier l'exactitude des faits pour éviter d'enfreindre les lois.

Bing n'a aucune obligation de partager ses sources d'entraînement de données, ce qui rend très difficile de déterminer si Bing AI utilise par inadvertance du contenu protégé par des droits d'auteur. Bien que cela soit difficile à identifier, les utilisateurs peuvent faire des réclamations sur du contenu protégé par des droits d'auteur. Le contrat de services Microsoft stipule que Bing AI prend en compte les entrées et les sorties des utilisateurs pour améliorer son modèle, mais rien n'est formellement en place pour empêcher le vol de propriété intellectuelle.

L' L'accord de services stipule que les utilisateurs accordent à Microsoft une licence de propriété intellectuelle mondiale et libre de droits pour utiliser votre contenu. De plus, Bing/Microsoft prend les entrées des utilisateurs pour former des modèles d'IA.

Précision et fiabilité

Microsoft n'offre aucune garantie quant à l'exactitude ou à l'actualité du contenu de ses services d'IA. Par conséquent, vous devez vérifier tous les faits concernant les outils d'IA de Microsoft, en particulier si vous êtes un propriétaire d'entreprise qui souhaite éviter toute conséquence juridique ou en termes de réputation. 

Sécurité et confidentialité

Outils d'IA de Microsoft (y compris Bing AI) utiliser les données personnelles et confidentielles des utilisateurs pour former ses modèlesSon contrat de service ne couvre pas le contenu généré par l’IA ; au lieu de cela, il tente de transférer toute la responsabilité du contenu de l’IA à l’utilisateur. Microsoft n'assume également aucune responsabilité pour les pratiques de confidentialité et de sécurité de ses clients. En bref, si vos données sont compromises lors de l'utilisation de Bing AI, c'est votre problème, pas celui de Microsoft.  

Utilisation

Microsoft ne revendique pas la propriété du contenu utilisateur, mais il ne réglemente pas spécifiquement le contenu généré par l'IA, dont la propriété est incertaine. L'accord de services permet aux gens d'utiliser le contenu à des fins commerciales, avec quelques stipulations importantes : vous devez accepter que le contenu généré par l'IA manque de créativité humaine, il ne peut donc pas être revendiqué comme propriété intellectuelle ; vous ne devez pas non plus enfreindre les droits de propriété intellectuelle d'autrui. En bref, vous ne pouvez pas utiliser la propriété intellectuelle d'autrui, mais tout ce que vous faites avec Bing n'est probablement pas votre propre propriété intellectuelle.

Quillbot a aucune obligation de révéler les sources utilisées pour former les modèles. Cependant, l'entreprise tente de manière intéressante de réglementer une situation unique : que se passe-t-il si la source de la formation du modèle est la sortie de l'IA ? Quillbot tente essentiellement de minimiser le risque de sortie protégée par le droit d'auteur, mais affirme qu'il existe toujours une chance que la sortie soit protégée par le droit d'auteur si les utilisateurs saisissent du contenu protégé par le droit d'auteur. Pour rendre les choses plus confuses, Quillbot essaie de couvrir tous les domaines en disant que les utilisateurs accordent à Quillbot une licence illimitée et sous-licenciable tout en affirmant que les utilisateurs sont propriétaires de toutes leurs sorties. 

Précision et fiabilité

Les ours Quillbot Aucune responsabilité quant à l'exactitude ou à la fiabilitéLes utilisateurs doivent être très prudents et vérifier tous les faits auprès de Quillbot. 

Sécurité et confidentialité

Quillbot a mesures visant à protéger la vie privée des utilisateurs, mais il peut néanmoins finir par traiter des données personnelles. Il existe des protections spéciales pour la vie privée des enfants. La responsabilité en cas de perte de données suite à un piratage est gérée au cas par cas. Quillbot indique que l'utilisateur doit prendre des mesures pour empêcher le piratage de ses données personnelles et que Quillbot a mis en place des éléments de protection des données. 

Utilisation

Les utilisateurs de Quillbot peuvent publier du contenu généré à des fins commerciales, mais vous devrez peut-être suivre certaines règles, comme ne pas publier de contenu préjudiciable ou trompeur. Conditions ne dites pas que vous devez déclarer que son contenu est généré par l'IA. En bref, le l'utilisateur peut publier du contenu généré par Quillbot tant que cela ne viole aucune loi ni aucun droit. 

Pixlr ne révèle pas ses sources pour la formation des modèles d'IA, car il n'y a aucune obligation légale pour eux de le faire. Ses conditions stipulent que l'utilisateur est propriétaire du contenu, mais les utilisateurs peuvent également accorder une licence à Pixlr pour utiliser le contenuIl s’agit d’une tentative visant à minimiser l’utilisation de contenu protégé par le droit d’auteur. 

Précision et fiabilité

Pixlr n'assume aucune responsabilité pour les inexactitudes dans son contenu généré par l'IA. Les utilisateurs doivent veiller à vérifier les faits sur tout ce qui se trouve sur Pixlr. 

Sécurité et confidentialité

Pixlr prend en compte les entrées des utilisateurs pour la formation des modèles d'IA. Il confie à l'utilisateur la responsabilité de faire attention à la saisie informations personnelles ou confidentielles. Pixlr décline toute responsabilité quant au filtrage de certaines informations de ses données de formation, bien qu'il utilise certains filtres pour bloquer les informations personnelles ou confidentielles. Pixlr affirme aucune responsabilité pour les problèmes de sécurité causés par les actions des utilisateurs

Utilisation

Les utilisateurs peuvent publier du contenu généré par l'IA via Pixlr à des fins commerciales (bien que certaines conditions s'appliquent). Les termes ne vous oblige pas à déclarer que quoi que ce soit est généré par l'IA. Les utilisateurs sont néanmoins toujours responsables de la violation des droits ou des lois. 

À mi-parcours les utilisateurs accordent à l'entreprise des droits sur tous les actifs créés par son intermédiaire, mais la l'utilisateur possède également tous les actifsIl existe des exceptions, comme le fait que vous ne pouvez pas revendiquer la propriété si vous je viens de mettre à l'échelle une image d'un créateur original.

Précision et fiabilité

Midjourney n'assume aucune responsabilité quant à la fiabilité et à l'exactitude de son contenu. Les utilisateurs doivent donc redoubler de prudence pour vérifier les faits et vérifier la fiabilité. 

Sécurité et confidentialité

Midjourney entraîne son modèle avec les entrées de l'utilisateur, même s'il inclut données personnelles ou confidentiellesMidjourney affirme que l'utilisateur doit être prudent avec les données sensibles, ce n'est donc pas son problème. L'entreprise tente de filtrer certaines informations pour la formation du modèle, mais ce n'est pas obligatoire. Midjourney décline toute responsabilité pour les problèmes de sécurité qui peuvent survenir suite aux actions d'un utilisateur. 

Utilisation

Les utilisateurs de Midjourney peuvent publier du contenu généré à des fins commerciales. Certaines conditions, comme l'obligation de souscrire à la version Pro si l'entreprise fait plus d'un million de dollars par an, s'appliquent. Au moment de la rédaction de cet article, les utilisateurs n'ont pas à déclarer que tout contenu de Midjourney est généré par l'IA, même si une législation est en cours pour changer cela. Les utilisateurs peuvent généralement utiliser n'importe quel contenu de Modjourney s'il ne viole aucun droit ni aucune loi. 

Clipchamp est un produit Microsoft, il n'a donc aucune obligation de partager les sources de données pour la formation des modèles. Par conséquent, il est difficile de savoir si l'outil d'IA utilise par inadvertance des données protégées par le droit d'auteur. Quelqu'un doit identifier la violation du droit d'auteur pour faire une réclamation, ce qui est peu probable. Le contrat de services Microsoft stipule il peut utiliser les entrées et sorties des utilisateurs pour améliorer les services, et Microsoft ne réglemente pas les questions de propriété intellectuelle. les utilisateurs accordent une licence de propriété intellectuelle mondiale et libre de droits à Microsoft

Précision et fiabilité

Clipchamp et Microsoft ne garantit rien en termes d'exactitude ou d'actualité de ses outils d'IA, les utilisateurs doivent donc vérifier tous les faits avant publication. Cela est particulièrement vrai pour les propriétaires d'entreprise qui peuvent faire face à des conséquences juridiques et à des atteintes à leur réputation. 

Sécurité et confidentialité

Clipchamp et Microsoft utiliser des données personnelles et confidentielles pour la formation des modèlesMicrosoft tente de transférer la responsabilité de tous les problèmes de contenu à l’utilisateur. Il en va de même pour le piratage informatique et les failles de sécurité.; c'est la responsabilité de l'utilisateur si quelque chose arrive. 

Utilisation

Clipchamp et Microsoft évitent de réglementer le contenu généré par l'IA, ne prétendant jamais que Microsoft est propriétaire du contenu. Techniquement, Microsoft affirme que l'utilisateur en est propriétaire, mais sans les droits de propriété intellectuelle. L'utilisateur peut publier du contenu Clipchamp à des fins commerciales à deux conditions : vous ne pouvez pas enfreindre les droits de propriété intellectuelle, ou prétendre détenir des droits de propriété intellectuelle sur le contenu généré. 

Le Looka Conditions L'entreprise n'a aucune obligation de partager les sources de formation des données, elle ne le fait donc pas. Les utilisateurs assument tous les risques lorsqu'ils utilisent le contenu généré par Looka. 

Précision et fiabilité

Looka n'accepte aucune responsabilité quant à l'exactitude et à la fiabilité des résultats de ses outils d'IA. Les utilisateurs doivent vérifier tous les faits et vérifier la fiabilité. 

Sécurité et confidentialité

Looka utilise des données d'entrée, même potentiellement personnelles et confidentielles, pour former son modèle, l'utilisateur est donc responsable de ne pas utiliser ce type de données dans sa saisie. Looka essaie de filtrer ces données, mais ils prétendent qu'ils n'en ont pas besoin. De plus, toutes les questions de sécurité sont à la charge de l'utilisateur. 

Utilisation

Les utilisateurs de Looka peuvent utiliser le contenu généré par l'IA à des fins commerciales, mais ils peuvent avoir besoin de respecter des conditions ou payer une taxe. Les utilisateurs ne sont pas obligés d'étiqueter leur contenu généré comme étant généré par l'IA. Les utilisateurs doivent éviter de publier du contenu généré qui viole les droits ou les lois. 

Il n'est pas possible de dire si Speechify entraîne son modèle sur les contenus protégés par le droit d'auteur. Nous ne le savons tout simplement pas. Les conditions d'utilisation de Speechify recommandent de ne pas utiliser de contenu protégé par le droit d'auteur pour les entrées, ce qui suggère que certaines sorties peuvent contenir des données protégées par le droit d'auteur. Speechify prétend ne pas être responsable de cela

Précision et fiabilité

Speechify, selon son Conditions, n'assume aucune responsabilité quant à l'exactitude de ses résultats. Les utilisateurs doivent toujours vérifier la rapidité, la fiabilité et l'exactitude de Speechify. 

Sécurité et confidentialité

Speechify transfère toute la responsabilité à l'utilisateur lorsqu'il s'agit de saisir des données sensibles ou personnellesL'outil utilise des entrées pour former des modèles, les utilisateurs doivent donc être prudents. Speechify n'a pas nécessairement besoin de filtrer les données sensibles ou personnelles, mais il essaie de le faire avec certains filtres. Toutes les responsabilités en matière de sécurité sont transmises à l'utilisateur. 

Utilisation

Les utilisateurs de Speechify peuvent utiliser des sorties à des fins commerciales, avec certaines conditions comme devoir s'abonner ou obtenir une licence. Utilisateurs il n'est pas nécessaire de déclarer que le contenu Speechify est généré par l'IALes utilisateurs de Speechify ne doivent cependant jamais violer les droits ou les lois lors de la publication des résultats de Speechify. 

Le Kapwing Les conditions placent toutes les responsabilités en matière de propriété intellectuelle et d'exactitude sur l'utilisateur. Tous les utilisateurs accordent à Kapwing une licence non exclusive, mais les utilisateurs conservent la propriété du contenuKapwing ne révèle rien sur l'utilisation éventuelle de données d'entrée pour la formation du modèle. 

Précision et fiabilité

Kapwing met toutes les responsabilités en matière de précision sur l'utilisateur, en particulier les conséquences juridiques et réputationnelles.

Sécurité et confidentialité

Les utilisateurs de Kapwing assument tous les risques lorsqu'ils choisissent de saisir des informations confidentielles dans son outil d'IA. Kapwing n'offre également aucune garantie ni responsabilité quant à la sécurité du service.

Utilisation

Vous pouvez publier du contenu Kapwing à des fins commerciales, mais Kapwing conseille aux utilisateurs d'être prudents. Leurs conditions ne précisent pas si les utilisateurs doivent ou non déclarer que le résultat de Kapwing est généré par l'IA.

Otter.ai déclare qu'il n'autorise pas les contenus portant atteinte au droit d'auteur dans ses services, mais il est difficile de vérifier cette affirmation. Les utilisateurs conservent la propriété et les droits d'auteur des contributions et publie dans Otter.ai, mais Otter.ai dit les utilisateurs sont responsables pour ne pas saisir de contenu précédemment protégé par des droits d'auteur.Otter.ai peut également utiliser des entrées pour l'apprentissage automatique.

Précision et fiabilité

Otter.ai décline toute responsabilité concernant l'exactitude et la fiabilité du contenu. Les utilisateurs doivent donc toujours vérifier le contenu. L'utilisation d'informations factuellement trompeuses ou incorrectes pourrait entraîner des problèmes juridiques ou de réputation pour l'utilisateur. 

Sécurité et confidentialité

Tout risque d'exposition d'informations confidentielles sur Otter.ai appartient à l'utilisateur. 

Utilisation

Les utilisateurs peuvent publier avec une intention commerciale puisque les utilisateurs sont les propriétaires du contenu d'Otter.ai. Cela dit, le contenu généré par l'IA n'a pas de règles de propriété claires. Otter.ai déclare également ses notes transcrites peuvent être recherchées et partagées.

PhotoRoom peut utiliser les entrées et les sorties des utilisateurs pour la formation des modèles, mais les informations sur le fait que le service le fasse ou non sont limitées. Les conditions d'utilisation de PhotoRoom rappellent aux utilisateurs d'éviter d'insérer du contenu protégé par des droits d'auteur. Les utilisateurs assument l'entière responsabilité pour ça. 

Précision et fiabilité

Salle Photo n'assume aucune responsabilité quant à l'exactitude ou à la fiabilité de son contenu généré par l'IALes utilisateurs doivent effectuer leurs propres vérifications pour vérifier cela.

Sécurité et confidentialité

PhotoRoom utilise des entrées pour entraîner ses modèles. Les utilisateurs sont responsables lors de l'insertion de données confidentielles or Des renseignements personnelsLe service tente de filtrer ces types d'entrées mais ne prétend pas y être obligé. Les utilisateurs assument l'entière responsabilité des problèmes de sécurité. 

Utilisation

Contenu de PhotoRoom peut être utilisé à des fins commerciales, mais certaines conditions peuvent s'appliquer, comme la souscription à un abonnement. Les conditions stipulent que vous n'êtes pas obligé de marquer le contenu comme généré par l'IA. Les utilisateurs peuvent voir d'autres répercussions s'ils enfreignent des droits ou des lois. 

Mentions légales

Ces informations sont fournies à titre d'information générale uniquement et ne doivent pas être considérées comme des conseils juridiques. Ecommerce Platforms n'assume aucune responsabilité en cas d'erreurs ou d'omissions. Consultez un professionnel du droit approprié pour obtenir des conseils et des orientations adaptés à vos besoins et circonstances spécifiques.

Pour aller plus loin

L’omniprésence de l’IA fait qu’il est de plus en plus probable que nous utilisions tous des outils et des applications basés sur cette technologie – mais beaucoup d’entre nous n’ont pas le luxe de consacrer du temps à lire leurs conditions générales. 

En 2017, le réseau de services professionnels Deloitte constaté que 91% de consommateurs « accepter volontairement les conditions légales sans les lire » — ce chiffre s’élève à 97 % entre 18 et 34 ans.

Compte tenu du nombre de CGU d'IA que nous avons évalué avec des scores de lisibilité faibles, il semble que L'impénétrabilité du jargon juridique de ces documents dissuade les utilisateurs de tenter de les comprendre. 

Nous avons travaillé avec un professionnel du droit pour analyser les documents pour nous, mais il est douteux que cela soit nécessaire.

Nous espérons que cette recherche — y compris ses notes de lisibilité et l’expertise de Josilda Ndreaj sur les termes et conditions à prendre en compte — vous aidera à guider vos choix quant aux applications et outils d’IA avec lesquels interagir. 

Méthodologie et sources

Comment nous avons mené la recherche

Nous avons commencé par rassembler la documentation juridique de chaque outil, des conditions générales aux politiques de confidentialité, à partir d'une liste de référence d'environ 90 outils et applications d'IA. Nous avons ensuite enregistré la longueur des mots de ces documents et calculé leur score de lisibilité à l'aide du système de notation de Flesch-Kincaid. Nous avons ensuite fait appel à une experte juridique, Josilda Ndreaj (LLM), qui a examiné une sélection de ces documents juridiques et identifié les points clés que les utilisateurs doivent connaître.

Pour environ 30 outils d'IA disponibles en version mobile, nous avons effectué une recherche sur l'App Store d'Apple et enregistré les étiquettes de confidentialité figurant sur leurs fiches. Celles-ci sont divisées en 14 catégories de données pouvant être collectées auprès des utilisateurs et à quelles fins. Pour calculer quelles applications d'IA collectaient le plus de données, nous avons mesuré dans combien des 14 catégories possibles ces applications suivaient leurs utilisateurs. 

Il est important de noter que ces 14 catégories sont divisées en points de données individuels. Par exemple, « Coordonnées » comprend cinq points de données : « Nom », « Adresse e-mail », « Numéro de téléphone », « Adresse physique » et « Autres coordonnées de l'utilisateur ». Pour savoir quelles applications collectent le plus de points de données individuels, consultez la dernière colonne de chacun des tableaux.

Certaines applications collecteront davantage de points de données individuels que celles qui apparaissent plus haut dans le classement. En effet, notre méthodologie de classement prend en compte les applications qui collectent le plus de données dans le plus grand nombre de catégories, ce qui suggère une image plus large et donc plus « complète » des données utilisateur, plutôt que la profondeur des informations qu'elles collectent dans chaque catégorie. 

Sources

Demandes de correction

Nous mettons régulièrement à jour cette recherche.

Si vous êtes le propriétaire de l'un des outils d'IA inclus dans cette recherche et que vous souhaitez contester les informations figurant sur cette page, nous sommes disposés à les mettre à jour sous réserve de notre examen des preuves que vous fournissez. Lorsque vous nous contactez à ce sujet, nous vous demandons de bien vouloir : 

  • documents commerciaux vérifiant votre légitimité (par exemple, certificat de constitution ou documents d'enregistrement) 
  • les informations sur cette page vous semblent obsolètes (soyez précis)
  • comment il doit être mis à jour et pourquoi, avec des liens vers la documentation qui le confirme (par exemple, les modifications des conditions d'utilisation)

S'il vous plaît contactez-nous au [email protected] avec pour objet : « Demande de correction : étude des outils d'IA », plus le nom de l'outil d'IA à propos duquel vous nous contactez.

Bogdan Rancea

Bogdan Rancea est le cofondateur de Ecommerce-Platforms.com et le conservateur principal d'ecomm.design, une vitrine des meilleurs sites de commerce électronique. Avec plus de 12 ans d'expérience dans le domaine du commerce numérique, il possède une richesse de connaissances et un œil attentif pour les expériences de vente au détail en ligne exceptionnelles. En tant qu'explorateur de technologies du commerce électronique, Bogdan teste et examine diverses plateformes et outils de conception tels que Shopify, Figma et Canva et fournit des conseils pratiques aux propriétaires de magasins et aux concepteurs.

première promotion d'un dollar de Shopify pendant 3 mois