Accueil » Articles » Au-delà des petits caractères : comprendre les applications d'IA et la confidentialité
Au-delà des petits caractères : comprendre les applications d'IA et la confidentialité
Si vous vous abonnez à un service à partir d'un lien sur cette page, Reeves and Sons Limited peut gagner une commission. Voir notre déclaration éthique.
L’intelligence artificielle est rapidement devenue partie intégrante de l’air du temps contemporain — mais les considérations éthiques autour du sujet restent sans réponse. Combien d’utilisateurs sont pleinement conscients de ce à quoi ils s’engagent ?
Ici, en se concentrant sur les termes et conditions et les politiques de confidentialité des outils et applications d'IA les plus populaires, Ecommerce Platforms dévoile ce que vous devez savoir lorsque vous utilisez ces outils pour vos besoins commerciaux quotidiens.
Nous avons analysé les données et les informations personnelles collectées par ces outils (et à quelle fin) pour vous aider à déterminer lesquelles des outils d'IA, les logiciels et les plateformes sont les plus adaptés à l'utilisation que vous souhaitez en faire. Nous avons également consulté un expert juridique pour décrypter le jargon derrière les termes et conditions de ces outils.
Lorsque vous utilisez une application d'IA, vous consentez à ce qu'au moins certaines de vos données soient collectées par celle-ci
Nous avons analysé les étiquettes de confidentialité de l'App Store d'Apple pour environ 30 versions d'applications mobiles disponibles d'outils d'IA populaires afin de comprendre lesquelles collectent vos données et pourquoi.
Les données collectées auprès des utilisateurs (et leur finalité) sont divisées en 14 catégories, permettant d'établir quelles applications collectent et suivent le plus de données utilisateur.
Pour plus de détails, consultez la section méthodologie à la fin de cette page.
Quelles données ces applications d’IA collectent-elles ?
Les outils d’IA évalués dans cette recherche collectent des données de différents types. Certains d’entre eux se concentrent sur les données personnelles des utilisateurs. — depuis leurs noms d’écran et leurs coordonnées bancaires jusqu’à leur santé et leur forme physique, et même des informations sensibles telles que leur race/appartenance ethnique, leur orientation sexuelle, leur identité de genre et leurs opinions politiques.
D'autres concernent le contenu créé par les utilisateurs (comme les e-mails et les messages, les photos, les vidéos et les enregistrements sonores), ou la façon dont les utilisateurs interagissent avec le produit lui-même, comme leur historique de recherche dans l'application ou les publicités qu'ils ont vues. Plus impersonnelles encore sont les informations de diagnostic collectées pour afficher les données de panne ou la consommation d'énergie.
Pourquoi ces applications d’IA collectent-elles des données ?
Il y a différentes raisons pour lesquelles les applications collectent des données,dont certains peuvent être considérés comme plus justifiables que d’autres — par exemple, la biométrie ou les informations de contact peuvent être utilisées pour authentifier l’identité de l’utilisateur.
De même, l’accès à certaines données peut être nécessaire au bon fonctionnement d’une application, notamment pour prévenir la fraude ou améliorer l’évolutivité et les performances.
Plus précisément, les applications de messagerie ont besoin d'accéder aux contacts, aux caméras des téléphones et aux microphones pour autoriser les appels, tandis que la géolocalisation est nécessaire pour les applications de taxi ou de livraison.
Parmi les raisons moins essentielles de collecter des données, on peut citer : publicité ou marketing par le développeur de l'application (par exemple, pour envoyer des communications marketing à vos utilisateurs) ; activation de la publicité par des tiers (en suivant les données d'autres applications pour diriger des publicités ciblées vers l'utilisateur, par exemple) ; et analyse du comportement de l'utilisateur à des fins telles que l'évaluation de l'efficacité des fonctionnalités existantes ou la planification de nouvelles fonctionnalités.
Applications d'IA qui collectent vos données pour les partager avec des annonceurs tiers
Les en-têtes de colonnes avec des boutons sont triables.
Application IA
% de données partagées avec d'autres
Historique de navigation
Contactez-nous
Identifiants
Emplacement
Autre informations
Achats
Historique de recherche
Données d’utilisation
Nombre de points de données collectés
canva
36%
2
2
1
1
2
8
Duolingo
36%
2
1
1
1
2
7
Assistant Google
21%
1
1
1
3
Bing
14%
1
1
2
Pixaï
14%
1
1
2
ventre
14%
1
1
2
ChatGPT
7%
1
1
Genie AI
7%
1
1
Lentille
7%
1
1
Speechify
7%
1
1
starryai
7%
1
1
De toutes les applications d’IA incluses dans notre recherche, Canva, un outil de conception graphique, collecte la plupart des données de ses utilisateurs à des fins publicitaires tierces — environ 36 %. En revanche, les cinq applications qui collectent le moins de données à cette fin en recueillent un peu plus de 7 %.
Les données que l'application Canva collecte auprès de vous et partage avec des tiers incluent votre historique de recherche, votre localisation, votre adresse e-mail et d'autres informations présentées dans le tableau ci-dessus.
Canva suit de près l'application d'apprentissage des langues gamifiée Duolingo (~36%), Assistant Google (~21 %), et Bing de Microsoft (~14 %) — dont la totalité nous partageons également vos données avec des tiers.
Parmi les cinq applications qui collectent le moins de données, seule étoilé (un générateur d'images) se limite uniquement au partage des données d'utilisation.
Des applications d'IA qui collectent vos données à leur propre profit
Les en-têtes de colonnes avec des boutons sont triables.
Application
% de données collectées pour le bénéfice propre de l'application
Historique de navigation
Contactez-nous
Identifiants
Emplacement
Achats
Historique de recherche
Données d’utilisation
Nombre de points de données collectés
canva
43%
2
2
1
1
1
2
9
Facetune
36%
2
4
2
2
4
14
Alexa d'Amazon
36%
4
2
1
1
2
10
Assistant Google
36%
1
2
2
1
2
8
Salle Photo
29%
1
1
1
1
4
Duolingo
21%
2
1
1
4
starryai
14%
2
1
3
Bing
14%
1
1
2
Lentille
14%
1
1
2
Loutre
7%
2
2
yupper
7%
1
1
Poe
7%
1
1
Pixaï
7%
1
1
Speechify
7%
1
1
ventre
7%
1
1
Canva est également en tête du classement des applications d'IA collectant des données utilisateur à des fins publicitaires ou marketing.Pour ce faire, Canva collecte environ 43 % des données de leurs utilisateurs.
En troisième place, Amazon Alexa récolte 36% de vos données pour la même finalité. Cela comprend votre adresse e-mail, votre adresse physique, votre numéro de téléphone, votre historique de recherche et votre historique d'achat, ainsi que cinq autres points de données. Assistant Google collecte et partage le même pourcentage de données pour cette raison, bien que sur huit points de données individuels, par rapport aux dix collectés par Amazon Alexa.
L' Le générateur de voix de synthèse vocale, Speechify, fait partie des applications qui collectent le moins de données. Selon les étiquettes de confidentialité de sa fiche sur l'App Store d'Apple, Speechify collecte un seul point de données pour son propre bénéfice ; l'identifiant de votre appareil.
Applications d'IA qui collectent vos données à toutes fins
Les en-têtes de colonnes avec des boutons sont triables.
Application
% de données collectées
Historique de navigation
Contactez-nous
Contacts
Diagnostics
Informations financières
Santé et Mise en Forme
Identifiants
Emplacement
Autre informations
Achats
Historique de recherche
Informations sensibles
Données d’utilisation
Le Contenu Généré par l'Utilisateur
Nombre de points de données collectés
Alexa d'Amazon
93%
24
4
9
3
4
10
8
4
5
5
4
13
23
116
Assistant Google
86%
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79%
10
1
7
1
12
4
4
6
1
7
7
60
canva
64%
11
3
1
8
5
4
5
10
6
53
Loutre
57%
7
3
5
7
2
3
2
11
40
Poe
57%
2
2
3
6
2
3
2
5
25
Facetune
50%
6
8
18
8
8
14
2
64
Bing
50%
1
2
6
3
3
2
3
20
Recherche profonde
50%
2
3
4
1
1
2
3
16
Mem
43%
6
4
6
6
6
4
32
ELSA parle
43%
2
6
6
3
3
3
23
Salle Photo
43%
2
1
9
3
4
1
20
Trint
43%
1
2
1
4
1
2
11
ChatGPT
36%
4
8
5
7
2
26
IA perplexité
36%
6
6
2
1
6
21
1/2
Tous les modèles d’IA nécessitent une certaine forme de formation par l’apprentissage automatique, ce qui signifie que ils ont besoin de données.
Si nous voulons que les outils d’IA s’améliorent et deviennent plus utiles, notre vie privée peut être considérée comme un compromis nécessaire contre la fourniture de ces données.
Cependant, la question de savoir où la frontière entre l'utilité et l'exploitation devrait être dessiné, et pourquoi, est une question épineuse.
Compte tenu de sa notoriété actuelle, il vaut la peine de s'intéresser à DeepSeekSon inscription sur l'App Store d'Apple indique que DeepSeek ne collecte pas de données utilisateur pour son propre bénéfice (par exemple, le marketing et la publicité de DeepSeek) ou pour les partager avec des tiers.
L' L'application DeepSeek collecte elle-même 50 % des données de ses utilisateurs, qui sert les fonctionnalités d'analyse et d'application de DeepSeek. À titre de comparaison, L'application ChatGPT collecte 36%.
Certains médias font état de préoccupations concernant les risques de sécurité liés aux origines chinoises de DeepSeek (tant en termes de collecte de données que de diffusion possible de fausses informations) et à la concurrence des rivaux américains. Il est peu probable que ces deux problèmes soient atténués par Conditions générales et politique de confidentialité de DeepSeek, ce qui prendrait environ 35 minutes de lecture, et sont classés comme "très difficile" sur l'échelle de lisibilité Flesch-Kincaid.
Quelle que soit la manière dont vos données sont utilisées, Amazon Alexa collecte plus de données de ses utilisateurs que toute autre application d'IA inclus dans cette recherche. Dans l'ensemble, il recueille 93% de vos données (ou 116 mesures individuelles, principalement les informations de contact, le contenu utilisateur et les données d'utilisation).
Assistant Google vient ensuite, en collectant 86%, Suivie par Duolingo, qui collecte 79%.
À l'autre extrémité de l'échelle, Générateur d'images AI, Stable Diffusion, ne collecte aucune donnéeC'est ce que disent les étiquettes de confidentialité figurant sur sa fiche sur l'App Store d'Apple.
S'il est vrai que tout IA générative Les modèles nécessitent une quantité massive de données pour être formés, et cette formation a lieu avant le développement d'applications spécifiques. Dans la plupart des cas, les créateurs d'applications ne sont pas propriétaires des modèles d'IA qu'ils utilisent ; la collecte de données utilisateur est donc liée à la fonctionnalité de l'application elle-même. Cela peut expliquer pourquoi certaines des applications que nous avons étudiées ne contiennent aucune information dans le tableau ci-dessus.
Naviguer dans les termes et conditions des outils d'IA
Maintenant, regardons le documentation juridique derrière les différents outils d'IA pour découvrir à quel point ils sont faciles ou difficiles à lire. Ceci est basé sur le test de niveau de lecture Flesch-Kincaid.
Ce système associe les textes aux niveaux de lecture des écoles américaines (de la cinquième à la terminale), puis des collèges, des cycles supérieurs et des professionnels. Les textes de niveau sixième sont définis comme « anglais conversationnel pour les consommateurs », tandis que les textes de niveau professionnel sont décrits comme « extrêmement difficiles à lire ».
Plus le score de lisibilité est bas, plus le texte est difficile à lire.
Les en-têtes de colonnes avec des boutons sont triables.
De manière révélatrice, « dormir suffisamment » – essentiel pour la santé physique et mentale et les fonctions cognitives – arrive en troisième position, derrière « travailler de longues heures » et « trier les déclarations d’impôts ».
Un tiers des personnes interrogées estiment qu'il n'est pas possible de réaliser toutes leurs tâches administratives pendant les heures de travail, et ont dit qu'ils il fallait quatre heures supplémentaires par jour pour tout faire.
Cela donne une idée de la difficulté que peut représenter la gestion d’une PME. temps nécessaire pour lire les termes et conditions Derrière les outils sur lesquels ils s'appuient se trouve pas facile à trouver.
Dans ce contexte, les temps de lecture de 40 minutes des CGU des outils de transcription comme Otter, Trint et Descript sont très importants.
Et c'est en supposant qu'il soit possible de comprendre les conditions générales les plus difficiles à lire. C'est pourquoi nous avons fait appel à l'expertise d'un expert juridique.
Nous avons demandé à un expert juridique en IA et en technologie de les lire et d'expliquer les points clés que vous devez connaître
Josilda Ndreaj, un professionnel du droit et avocat agréé, a géré des questions juridiques complexes au nom de clients Fortune 500 et a fourni des conseils à diverses sociétés.
Plus récemment, en tant que consultante indépendante, elle a axé sur le droit de la propriété intellectuelle à l'intersection de la technologie blockchain et de l'intelligence artificielle.
Josilda Ndreaj (LLM) est une professionnelle du droit et une avocate agréée possédant une expertise en droit de la propriété intellectuelle (PI).
Sa carrière de consultante juridique a débuté dans un prestigieux cabinet d'avocats international, au service de clients Fortune 500. Ici, Josilda a géré des questions juridiques complexes et a fourni des conseils à différentes entreprises.
Motivée par son intérêt pour l'innovation, la créativité et les technologies émergentes, Josilda s'est ensuite lancée dans le conseil indépendant et s'est concentrée sur le droit de la propriété intellectuelle, en couvrant l'intersection avec la technologie blockchain et l'intelligence artificielle.
Josilda est titulaire de deux maîtrises en droit, l'une spécialisée en droit civil et commercial de l'Université de Tirana, et l'autre axée sur le droit de la propriété intellectuelle, de l'Université d'économie et de droit de Zhongnan.
En tant que telle, Josilda était particulièrement bien placé pour examiner une sélection de documents juridiques de ces outils d'IA, en tirant les points clés au profit de ceux d'entre nous qui ne sont pas titulaires de deux maîtrises en droit.
Ses résumés sont présentés ci-dessous :
Plagiat et violation du droit d'auteur
Gemini (anciennement Bard) n'a aucune obligation de déclarer les sources de formation, nous ne pouvons donc pas vérifier si elle est formée sur des documents protégés par le droit d'auteur. Gemini n'est pas exclu de la responsabilité d'une telle violation ; si un titulaire de droits d'auteur porte plainte, Gemini porte une certaine responsabilité. Mais il est important de noter que Gemini est formé sur ce que l'utilisateur lui donne. Pour cela, Gemini nécessite une licence de l'utilisateurSi l'utilisateur accepte d'accorder cette licence à Gemini, mais qu'il (l'utilisateur) ne possède pas réellement le droit d'auteur, la responsabilité incombe à l'utilisateur.
Les utilisateurs conservent la propriété de leurs entrées et de leurs invites, mais la propriété du résultat est plus complexe. Gemini ne l'indique pas clairement dans ses conditions générales. De nombreuses législations ne reconnaissent pas les droits de propriété intellectuelle des machines. Il est cependant discutable de prétendre que le résultat est « généré par l'homme », même si l'utilisateur est propriétaire de l'entrée.
Les propriétaires d'entreprise ne doivent jamais publier un résultat de Gemini sans l'avoir vérifié auprès d'experts, l'avoir vérifié pour les mises à jour et l'avoir vérifié auprès d'experts. Dans le cas contraire, ils courent le risque de publier des informations trompeuses, ce qui peut avoir des conséquences sur leur réputation ou sur le plan juridique.
Sécurité et confidentialité
Google (le propriétaire de Gemini) ne fournit aucune information dans sa politique de confidentialité sur la manière dont il traite les données confidentielles.
Actuellement, aucune législation n'oblige ChatGPT à déclarer publiquement sur quoi son modèle est formé. Ainsi, comme il ne révèle pas ses sources, nous ne pouvons pas savoir si ChatGPT fournit ou traite du contenu protégé par les lois sur le droit d'auteur. Si quelqu'un identifie du contenu protégé par le droit d'auteur provenant de ChatGPT, ils peuvent faire une réclamation pour supprimer ce contenu.
Les utilisateurs doivent vérifier toutes les informations de ChatGPT. C'est parce que ChatGPT n'assume aucune responsabilité quant à la fourniture d'informations exactes, contenu à jour. Selon sa section Clause de non-garantie, l'utilisateur assume tous les risques d'exactitude, qualité, fiabilité, sécurité et exhaustivité. Par conséquent, vérifiez toujours les faits sur ChatGPT ; recoupez-les, vérifiez les mises à jour et vérifiez également l'exactitude auprès des experts. Les propriétaires d'entreprise peuvent faire face à des conséquences juridiques ou à des atteintes à leur réputation s'ils ne vérifient pas l'exactitude du contenu de ChatGPT avant publication.
Les utilisateurs de ChatGPT sont propriétaires de leur contenu d'entrée et de sortie; les utilisateurs doivent donc s'assurer que le contenu ne viole aucune loi. Les utilisateurs ne peuvent pas prétendre que le contenu est généré par l'homme, mais vous n'êtes pas non plus obligé de dire qu'il est généré par l'IA. Tant que les utilisateurs respectent les lois régionales et les conditions d'utilisation, le contenu de ChatGPT peut être utilisé à des fins commerciales, sur les réseaux sociaux, pour la publicité payante et d'autres canaux. Il est conseillé de vérifier les faits, de faire des références et de respecter les lois avant de publier du contenu de ChatGPT.
Plagiat et violation du droit d'auteur
Ni la politique de confidentialité ni les conditions générales ne précisent si l'outil d'IA de DeepSeek a été formé sur des documents protégés par le droit d'auteur. De plus, elles ne garantissent pas que les résultats ne porteront pas atteinte aux droits d'auteur de quiconque. Les conditions d'utilisation de DeepSeek stipulent que les utilisateurs conservent les droits sur leurs entrées (invites), mais cela n'implique pas nécessairement qu'elles soient protégées par le droit d'auteur en premier lieu, les utilisateurs doivent donc prendre des mesures pour s'assurer que ce qu'ils utilisent comme invites n'est pas la propriété intellectuelle de quelqu'un d'autre.
La politique de confidentialité de DeepSeek explique que les entrées des utilisateurs sont traitées pour générer des sorties, mais également pour améliorer le service de DeepSeek. Ceci comprend « former et améliorer [leur] technologie ». Les utilisateurs doivent donc être prudents lorsqu'ils saisissent des informations sensibles, et même si DeepSeek a «commercialement raisonnable" Bien que des mesures soient en place pour protéger les données et les informations utilisées comme entrées, il ne fournit aucune garantie absolue. Les conditions de DeepSeek stipulent qu'ils ne publient pas d'entrées ou de sorties dans des forums publics, mais certains peuvent être partagés avec des tiers.
Utilisation
Tout contenu généré par les utilisateurs via DeepSeek peut être utilisé à des fins commerciales, mais en raison des zones grises autour du plagiat et de l'exactitude, les utilisateurs doivent prendre des mesures pour vérifier le contenu avant de l'utiliser de cette manière. Les conditions d'utilisation de DeepSeek ne font référence à aucune limitation concernant l'endroit où les utilisateurs peuvent publier ce contenu dans le monde, mais elles indiquent clairement que les utilisateurs doivent déclarer qu'il est généré par l'IA « pour alerter le public sur la nature synthétique du contenu ».
Plagiat et violation du droit d'auteur
Canva n'est pas légalement tenu de révéler ses sources de données de formation. Par conséquent, nous ne savons pas si du matériel protégé par le droit d'auteur est utilisé. L'utilisateur possède tout le contenu d'entrée et de sortie (pas Canva), mais Canva peut utiliser ce contenu pour améliorer ses services.
Tout comme ChatGPT, DALL-E ne déclare pas les sources de son modèle d'entraînement. Si, toutefois, vous trouvez du contenu protégé par des droits d'auteur, vous peut soumettre une demande de suppressionIl est difficile de vérifier si DALL-E enfreint un droit d'auteur car aucune législation n'oblige DALL-E à révéler ses sources de données. La saisie de l'utilisateur, conformément aux Conditions, peut être utilisé pour entraîner le modèle DALL-E — même s'il s'agit d'un contenu protégé par des droits d'auteur. L'utilisateur peut choisir de ne pas le faire.
La politique de confidentialité et les conditions générales de DALL-E ne mentionnent jamais explicitement la responsabilité en cas de faille de sécurité. DALL-E a toutefois mis en place des mesures de sécurité. La responsabilité en cas de piratage dépend des lois régionales.
Vous pouvez utiliser DALL-E à des fins commerciales, à condition de respecter toutes les lois et les conditions d'utilisation de DALL-E. Les réglementations peuvent changer, mais au moment de la rédaction de cet article, les utilisateurs sont invités à publier du contenu DALL-E sur les réseaux sociaux, dans des publicités et sur d'autres canaux. Les utilisateurs doivent toujours faire des références appropriées et vérifier l'exactitude des faits pour éviter d'enfreindre les lois.
Plagiat et violation du droit d'auteur
Bing n'a aucune obligation de partager ses sources d'entraînement de données, ce qui rend très difficile de déterminer si Bing AI utilise par inadvertance du contenu protégé par des droits d'auteur. Bien que cela soit difficile à identifier, les utilisateurs peuvent faire des réclamations sur du contenu protégé par des droits d'auteur. Le contrat de services Microsoft stipule que Bing AI prend en compte les entrées et les sorties des utilisateurs pour améliorer son modèle, mais rien n'est formellement en place pour empêcher le vol de propriété intellectuelle.
Microsoft n'offre aucune garantie quant à l'exactitude ou à l'actualité du contenu de ses services d'IA. Par conséquent, vous devez vérifier tous les faits concernant les outils d'IA de Microsoft, en particulier si vous êtes un propriétaire d'entreprise qui souhaite éviter toute conséquence juridique ou en termes de réputation.
Microsoft ne revendique pas la propriété du contenu utilisateur, mais il ne réglemente pas spécifiquement le contenu généré par l'IA, dont la propriété est incertaine. L'accord de services permet aux gens d'utiliser le contenu à des fins commerciales, avec quelques stipulations importantes : vous devez accepter que le contenu généré par l'IA manque de créativité humaine, il ne peut donc pas être revendiqué comme propriété intellectuelle ; vous ne devez pas non plus enfreindre les droits de propriété intellectuelle d'autrui. En bref, vous ne pouvez pas utiliser la propriété intellectuelle d'autrui, mais tout ce que vous faites avec Bing n'est probablement pas votre propre propriété intellectuelle.
Plagiat et violation du droit d'auteur
Quillbot a aucune obligation de révéler les sources utilisées pour former les modèles. Cependant, l'entreprise tente de manière intéressante de réglementer une situation unique : que se passe-t-il si la source de la formation du modèle est la sortie de l'IA ? Quillbot tente essentiellement de minimiser le risque de sortie protégée par le droit d'auteur, mais affirme qu'il existe toujours une chance que la sortie soit protégée par le droit d'auteur si les utilisateurs saisissent du contenu protégé par le droit d'auteur. Pour rendre les choses plus confuses, Quillbot essaie de couvrir tous les domaines en disant que les utilisateurs accordent à Quillbot une licence illimitée et sous-licenciable tout en affirmant que les utilisateurs sont propriétaires de toutes leurs sorties.
Quillbot a mesures visant à protéger la vie privée des utilisateurs, mais il peut néanmoins finir par traiter des données personnelles. Il existe des protections spéciales pour la vie privée des enfants. La responsabilité en cas de perte de données suite à un piratage est gérée au cas par cas. Quillbot indique que l'utilisateur doit prendre des mesures pour empêcher le piratage de ses données personnelles et que Quillbot a mis en place des éléments de protection des données.
Utilisation
Les utilisateurs de Quillbot peuvent publier du contenu généré à des fins commerciales, mais vous devrez peut-être suivre certaines règles, comme ne pas publier de contenu préjudiciable ou trompeur. Conditions ne dites pas que vous devez déclarer que son contenu est généré par l'IA. En bref, le l'utilisateur peut publier du contenu généré par Quillbot tant que cela ne viole aucune loi ni aucun droit.
Plagiat et violation du droit d'auteur
Pixlr ne révèle pas ses sources pour la formation des modèles d'IA, car il n'y a aucune obligation légale pour eux de le faire. Ses conditions stipulent que l'utilisateur est propriétaire du contenu, mais les utilisateurs peuvent également accorder une licence à Pixlr pour utiliser le contenuIl s’agit d’une tentative visant à minimiser l’utilisation de contenu protégé par le droit d’auteur.
Les utilisateurs peuvent publier du contenu généré par l'IA via Pixlr à des fins commerciales (bien que certaines conditions s'appliquent). Les termes ne vous oblige pas à déclarer que quoi que ce soit est généré par l'IA. Les utilisateurs sont néanmoins toujours responsables de la violation des droits ou des lois.
Midjourney entraîne son modèle avec les entrées de l'utilisateur, même s'il inclut données personnelles ou confidentiellesMidjourney affirme que l'utilisateur doit être prudent avec les données sensibles, ce n'est donc pas son problème. L'entreprise tente de filtrer certaines informations pour la formation du modèle, mais ce n'est pas obligatoire. Midjourney décline toute responsabilité pour les problèmes de sécurité qui peuvent survenir suite aux actions d'un utilisateur.
Utilisation
Les utilisateurs de Midjourney peuvent publier du contenu généré à des fins commerciales. Certaines conditions, comme l'obligation de souscrire à la version Pro si l'entreprise fait plus d'un million de dollars par an, s'appliquent. Au moment de la rédaction de cet article, les utilisateurs n'ont pas à déclarer que tout contenu de Midjourney est généré par l'IA, même si une législation est en cours pour changer cela. Les utilisateurs peuvent généralement utiliser n'importe quel contenu de Modjourney s'il ne viole aucun droit ni aucune loi.
Clipchamp et Microsoft ne garantit rien en termes d'exactitude ou d'actualité de ses outils d'IA, les utilisateurs doivent donc vérifier tous les faits avant publication. Cela est particulièrement vrai pour les propriétaires d'entreprise qui peuvent faire face à des conséquences juridiques et à des atteintes à leur réputation.
Clipchamp et Microsoft évitent de réglementer le contenu généré par l'IA, ne prétendant jamais que Microsoft est propriétaire du contenu. Techniquement, Microsoft affirme que l'utilisateur en est propriétaire, mais sans les droits de propriété intellectuelle. L'utilisateur peut publier du contenu Clipchamp à des fins commerciales à deux conditions : vous ne pouvez pas enfreindre les droits de propriété intellectuelle, ou prétendre détenir des droits de propriété intellectuelle sur le contenu généré.
Plagiat et violation du droit d'auteur
Le Looka Conditions L'entreprise n'a aucune obligation de partager les sources de formation des données, elle ne le fait donc pas. Les utilisateurs assument tous les risques lorsqu'ils utilisent le contenu généré par Looka.
Looka utilise des données d'entrée, même potentiellement personnelles et confidentielles, pour former son modèle, l'utilisateur est donc responsable de ne pas utiliser ce type de données dans sa saisie. Looka essaie de filtrer ces données, mais ils prétendent qu'ils n'en ont pas besoin. De plus, toutes les questions de sécurité sont à la charge de l'utilisateur.
Utilisation
Les utilisateurs de Looka peuvent utiliser le contenu généré par l'IA à des fins commerciales, mais ils peuvent avoir besoin de respecter des conditions ou payer une taxe. Les utilisateurs ne sont pas obligés d'étiqueter leur contenu généré comme étant généré par l'IA. Les utilisateurs doivent éviter de publier du contenu généré qui viole les droits ou les lois.
Plagiat et violation du droit d'auteur
Il n'est pas possible de dire si Speechify entraîne son modèle sur les contenus protégés par le droit d'auteur. Nous ne le savons tout simplement pas. Les conditions d'utilisation de Speechify recommandent de ne pas utiliser de contenu protégé par le droit d'auteur pour les entrées, ce qui suggère que certaines sorties peuvent contenir des données protégées par le droit d'auteur. Speechify prétend ne pas être responsable de cela.
Précision et fiabilité
Speechify, selon son Conditions, n'assume aucune responsabilité quant à l'exactitude de ses résultats. Les utilisateurs doivent toujours vérifier la rapidité, la fiabilité et l'exactitude de Speechify.
Les utilisateurs de Kapwing assument tous les risques lorsqu'ils choisissent de saisir des informations confidentielles dans son outil d'IA. Kapwing n'offre également aucune garantie ni responsabilité quant à la sécurité du service.
Utilisation
Vous pouvez publier du contenu Kapwing à des fins commerciales, mais Kapwing conseille aux utilisateurs d'être prudents. Leurs conditions ne précisent pas si les utilisateurs doivent ou non déclarer que le résultat de Kapwing est généré par l'IA.
Otter.ai décline toute responsabilité concernant l'exactitude et la fiabilité du contenu. Les utilisateurs doivent donc toujours vérifier le contenu. L'utilisation d'informations factuellement trompeuses ou incorrectes pourrait entraîner des problèmes juridiques ou de réputation pour l'utilisateur.
PhotoRoom peut utiliser les entrées et les sorties des utilisateurs pour la formation des modèles, mais les informations sur le fait que le service le fasse ou non sont limitées. Les conditions d'utilisation de PhotoRoom rappellent aux utilisateurs d'éviter d'insérer du contenu protégé par des droits d'auteur. Les utilisateurs assument l'entière responsabilité pour ça.
Contenu de PhotoRoom peut être utilisé à des fins commerciales, mais certaines conditions peuvent s'appliquer, comme la souscription à un abonnement. Les conditions stipulent que vous n'êtes pas obligé de marquer le contenu comme généré par l'IA. Les utilisateurs peuvent voir d'autres répercussions s'ils enfreignent des droits ou des lois.
Mentions légales
Ces informations sont fournies à titre d'information générale uniquement et ne doivent pas être considérées comme des conseils juridiques. Ecommerce Platforms n'assume aucune responsabilité en cas d'erreurs ou d'omissions. Consultez un professionnel du droit approprié pour obtenir des conseils et des orientations adaptés à vos besoins et circonstances spécifiques.
Pour aller plus loin
L’omniprésence de l’IA fait qu’il est de plus en plus probable que nous utilisions tous des outils et des applications basés sur cette technologie – mais beaucoup d’entre nous n’ont pas le luxe de consacrer du temps à lire leurs conditions générales.
Compte tenu du nombre de CGU d'IA que nous avons évalué avec des scores de lisibilité faibles, il semble que L'impénétrabilité du jargon juridique de ces documents dissuade les utilisateurs de tenter de les comprendre.
Nous avons travaillé avec un professionnel du droit pour analyser les documents pour nous, mais il est douteux que cela soit nécessaire.
Nous espérons que cette recherche — y compris ses notes de lisibilité et l’expertise de Josilda Ndreaj sur les termes et conditions à prendre en compte — vous aidera à guider vos choix quant aux applications et outils d’IA avec lesquels interagir.
Méthodologie et sources
Comment nous avons mené la recherche
Nous avons commencé par rassembler la documentation juridique de chaque outil, des conditions générales aux politiques de confidentialité, à partir d'une liste de référence d'environ 90 outils et applications d'IA. Nous avons ensuite enregistré la longueur des mots de ces documents et calculé leur score de lisibilité à l'aide du système de notation de Flesch-Kincaid. Nous avons ensuite fait appel à une experte juridique, Josilda Ndreaj (LLM), qui a examiné une sélection de ces documents juridiques et identifié les points clés que les utilisateurs doivent connaître.
Pour environ 30 outils d'IA disponibles en version mobile, nous avons effectué une recherche sur l'App Store d'Apple et enregistré les étiquettes de confidentialité figurant sur leurs fiches. Celles-ci sont divisées en 14 catégories de données pouvant être collectées auprès des utilisateurs et à quelles fins. Pour calculer quelles applications d'IA collectaient le plus de données, nous avons mesuré dans combien des 14 catégories possibles ces applications suivaient leurs utilisateurs.
Il est important de noter que ces 14 catégories sont divisées en points de données individuels. Par exemple, « Coordonnées » comprend cinq points de données : « Nom », « Adresse e-mail », « Numéro de téléphone », « Adresse physique » et « Autres coordonnées de l'utilisateur ». Pour savoir quelles applications collectent le plus de points de données individuels, consultez la dernière colonne de chacun des tableaux.
Certaines applications collecteront davantage de points de données individuels que celles qui apparaissent plus haut dans le classement. En effet, notre méthodologie de classement prend en compte les applications qui collectent le plus de données dans le plus grand nombre de catégories, ce qui suggère une image plus large et donc plus « complète » des données utilisateur, plutôt que la profondeur des informations qu'elles collectent dans chaque catégorie.
Sources
App Store d'Apple pages pour chaque application, exactes en février 2025.
Divers documents pour chaque application d'IA (y compris les conditions générales et les politiques de confidentialité) consultés et examinés par Josilda Ndreaj en février 2024, à l'exception de DeepSeek, qui a été consulté et examiné en janvier 2025.
Calculateur de lisibilité Flesch-Kincaid.
Grattoir de comptage de mots.
Diverses synthèses pour éclairer la liste initiale des applications et outils d'IA, notamment :
Nous mettons régulièrement à jour cette recherche.
Si vous êtes le propriétaire de l'un des outils d'IA inclus dans cette recherche et que vous souhaitez contester les informations figurant sur cette page, nous sommes disposés à les mettre à jour sous réserve de notre examen des preuves que vous fournissez. Lorsque vous nous contactez à ce sujet, nous vous demandons de bien vouloir :
documents commerciaux vérifiant votre légitimité (par exemple, certificat de constitution ou documents d'enregistrement)
les informations sur cette page vous semblent obsolètes (soyez précis)
comment il doit être mis à jour et pourquoi, avec des liens vers la documentation qui le confirme (par exemple, les modifications des conditions d'utilisation)
S'il vous plaît contactez-nous au [email protected] avec pour objet : « Demande de correction : étude des outils d'IA », plus le nom de l'outil d'IA à propos duquel vous nous contactez.
Bogdan Rancea est le cofondateur de Ecommerce-Platforms.com et le conservateur principal d'ecomm.design, une vitrine des meilleurs sites de commerce électronique. Avec plus de 12 ans d'expérience dans le domaine du commerce numérique, il possède une richesse de connaissances et un œil attentif pour les expériences de vente au détail en ligne exceptionnelles. En tant qu'explorateur de technologies du commerce électronique, Bogdan teste et examine diverses plateformes et outils de conception tels que Shopify, Figma et Canva et fournit des conseils pratiques aux propriétaires de magasins et aux concepteurs.
Ce site Web utilise des cookies uniquement pour les fonctionnalités et analyses essentielles telles que décrites dans notre Politique de cookie.