Kunstmatige intelligentie is snel onderdeel geworden van de hedendaagse tijdsgeest, maar ethische overwegingen rondom dit onderwerp zijn nog steeds niet opgelost. Hoeveel gebruikers zijn zich volledig bewust van waar ze zich voor aanmelden?
Ecommerce Platforms gaat dieper in op de algemene voorwaarden en het privacybeleid van de populairste AI-tools en -apps en legt uit wat u moet weten wanneer u deze tools gebruikt voor uw dagelijkse zakelijke behoeften.
We hebben de gegevens en persoonlijke informatie die deze tools verzamelen (en met welk doel) geanalyseerd om u te helpen bepalen welke AI-hulpmiddelen, software en platforms het meest geschikt zijn voor het beoogde gebruik. We hebben ook een juridisch expert geraadpleegd om het jargon te ontleden achter de algemene voorwaarden van deze tools.
Wanneer u een AI-app gebruikt, stemt u ermee in dat (ten minste een deel van) uw gegevens door de app worden verzameld.
We hebben de privacylabels van de Apple App Store voor ongeveer 30 beschikbare mobiele app-versies van populaire AI-tools geanalyseerd om te begrijpen welke tools uw gegevens verzamelen en waarom.
De gegevens die van gebruikers worden verzameld (en het doel ervan) worden verdeeld in 14 categorieën. Zo is het mogelijk om vast te stellen welke apps de meeste gebruikersgegevens verzamelen en bijhouden.
Voor meer informatie kunt u terecht in het hoofdstuk Methodologie aan het einde van deze pagina.
Welke gegevens verzamelen deze AI-apps?
De AI-tools die in dit onderzoek zijn beoordeeld, verzamelen verschillende soorten gegevens. Sommige hiervan richten zich op persoonlijke gegevens van gebruikers — van schermnamen en bankgegevens tot hun gezondheid en conditie, en zelfs gevoelige informatie zoals ras/etniciteit, seksuele geaardheid, genderidentiteit en politieke opvattingen.
Andere hebben betrekking op content die door gebruikers is gemaakt (zoals e-mails en berichten, foto's, video's en geluidsopnames), of hoe gebruikers omgaan met het product zelf, zoals hun in-app zoekgeschiedenis of welke advertenties ze hebben gezien. Nog onpersoonlijker is de diagnostische informatie die wordt verzameld om crashgegevens of energieverbruik te tonen.
Waarom verzamelen deze AI-apps gegevens?
Er zijn verschillende redenen waarom apps gegevens verzamelen,waarvan sommige als meer gerechtvaardigd kunnen worden beschouwd dan andere — biometrie of contactgegevens kunnen bijvoorbeeld worden gebruikt om de identiteit van de gebruiker te verifiëren.
Op dezelfde manier kan toegang tot bepaalde gegevens vereist zijn om een app correct te laten functioneren, bijvoorbeeld om fraude te voorkomen of de schaalbaarheid en prestaties te verbeteren.
Zo hebben berichten-apps toegang nodig tot contacten, telefooncamera's en microfoons om te kunnen bellen, terwijl taxi- of bezorg-apps geolocatie nodig hebben.
Minder essentiële redenen om gegevens te verzamelen zijn onder meer: reclame of marketing door de ontwikkelaar van de app (bijvoorbeeld om marketingcommunicatie naar uw gebruikers te sturen); het mogelijk maken van reclame door derden (door gegevens van andere apps bij te houden om bijvoorbeeld gerichte advertenties aan de gebruiker te richten); en het analyseren van gebruikersgedrag voor doeleinden zoals het beoordelen van de effectiviteit van bestaande functies of het plannen van nieuwe functies.
Hoi mobiele gebruiker 👋 De onderstaande tabellen kunnen worden horizontaal gescrold om alle gegevens te zien, maar deze pagina ziet er zeker beter uit op Desktop.
AI-apps die uw gegevens verzamelen om te delen met externe adverteerders
Kolomkoppen met knoppen zijn sorteerbaar.
AI-app
% gegevens gedeeld met anderen
Browsing Geschiedenis
Contactgegevens
Identifiers
Locatie
andere gegevens
Aankopen
Zoekgeschiedenis
Gebruiksgegevens
Aantal verzamelde datapunten
Canva
36%
2
2
1
1
2
8
Duolingo
36%
2
1
1
1
2
7
Google Assistant
21%
1
1
1
3
Bing
14%
1
1
2
Pixie
14%
1
1
2
baarmoeder
14%
1
1
2
ChatGPT
7%
1
1
Genie AI
7%
1
1
lensa
7%
1
1
Spraakmaken
7%
1
1
Sterren AI
7%
1
1
Van alle AI-apps die in ons onderzoek zijn opgenomen, Canva, een grafisch ontwerptool, verzamelt de meeste gegevens van zijn gebruikers voor advertentiedoeleinden van derden — rond de 36%. Daarentegen verzamelen de vijf apps die de minste data verzamelen voor dit doel iets meer dan 7%.
De gegevens die de app van Canva van u verzamelt en deelt met derden, zijn onder andere uw zoekgeschiedenis, locatie, e-mailadres en andere informatie die in de bovenstaande tabel wordt weergegeven.
Op de voet gevolgd door Canva is de gamified taal-leer-app Duolingo (~36%), Google Assistant (~21%), en Microsofts Bing (~14%) — allemaal uw gegevens ook delen met derden.
Van de vijf apps die de minste gegevens verzamelen, zijn er maar sterrenhemel (een beeldgenerator) beperkt zich tot het uitsluitend delen van gebruiksgegevens.
AI-apps die uw gegevens verzamelen voor hun eigen voordeel
Kolomkoppen met knoppen zijn sorteerbaar.
app
% gegevens verzameld voor eigen voordeel van de app
Browsing Geschiedenis
Contactgegevens
Identifiers
Locatie
Aankopen
Zoekgeschiedenis
Gebruiksgegevens
Aantal verzamelde datapunten
Canva
43%
2
2
1
1
1
2
9
Facetune
36%
2
4
2
2
4
14
Amazon's Alexa
36%
4
2
1
1
2
10
Google Assistant
36%
1
2
2
1
2
8
Fotokamer
29%
1
1
1
1
4
Duolingo
21%
2
1
1
4
Sterren AI
14%
2
1
3
Bing
14%
1
1
2
lensa
14%
1
1
2
Otter
7%
2
2
Eten
7%
1
1
Poe
7%
1
1
Pixie
7%
1
1
Spraakmaken
7%
1
1
baarmoeder
7%
1
1
Canva staat ook bovenaan de lijst voor AI-apps die gebruikersgegevens verzamelen voor hun eigen advertentie- of marketingdoeleindenOm dit te doen, verzamelt Canva ongeveer 43% van de gegevens van hun gebruikers.
Op de derde plaats, Amazon Alexa verzamelt 36% van uw gegevens voor hetzelfde doel. Dit omvat uw e-mailadres, fysieke adres, telefoonnummer, zoekgeschiedenis en aankoopgeschiedenis, plus vijf andere datapunten. Google Assistant verzamelt en deelt om deze reden hetzelfde percentage gegevens, maar dan verdeeld over acht afzonderlijke datapunten, vergeleken met de tien die Amazon Alexa verzamelt.
De Speechify, een spraakgenerator die tekst naar spraak kan omzetten, behoort tot de apps die de minste gegevens verzamelen. Volgens de privacylabels in de Apple App Store-vermelding verzamelt Speechify slechts één gegevenspunt voor eigen gewin; uw apparaat-ID.
AI-apps die uw gegevens voor welk doel dan ook verzamelen
Kolomkoppen met knoppen zijn sorteerbaar.
app
% verzamelde gegevens
Browsing Geschiedenis
Contactgegevens
Contacten
Diagnostiek
Financiële info
Gezondheid en fitness
Identifiers
Locatie
andere gegevens
Aankopen
Zoekgeschiedenis
Gevoelige informatie
Gebruiksgegevens
Gebruikers Content
Aantal verzamelde datapunten
Amazon's Alexa
93%
24
4
9
3
4
10
8
4
5
5
4
13
23
116
Google Assistant
86%
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79%
10
1
7
1
12
4
4
6
1
7
7
60
Canva
64%
11
3
1
8
5
4
5
10
6
53
Otter
57%
7
3
5
7
2
3
2
11
40
Poe
57%
2
2
3
6
2
3
2
5
25
Facetune
50%
6
8
18
8
8
14
2
64
Bing
50%
1
2
6
3
3
2
3
20
Diepzoeken
50%
2
3
4
1
1
2
3
16
Mem
43%
6
4
6
6
6
4
32
ELSA Spreek
43%
2
6
6
3
3
3
23
Fotokamer
43%
2
1
9
3
4
1
20
Trint
43%
1
2
1
4
1
2
11
ChatGPT
36%
4
8
5
7
2
26
Perplexiteit AI
36%
6
6
2
1
6
21
1 / 2
Alle AI-modellen vereisen een vorm van training via machinaal leren, wat betekent dat ze hebben gegevens nodig.
Als we willen dat AI-tools verbeteren en nuttiger wordenkan onze privacy worden gezien als een noodzakelijke afweging tegen het verstrekken van deze gegevens.
De vraag is echter waar de grens tussen nut en exploitatie moet worden getekend en waarom, is een lastige vraag.
Gezien de huidige bekendheid ervan is het de moeite waard om DeepSeek te bespreken. In de vermelding in de Apple App Store staat dat DeepSeek geen gebruikersgegevens verzamelt voor eigen gewin (bijvoorbeeld DeepSeeks eigen marketing en reclame) of om te delen met derden.
De De DeepSeek-app verzamelt zelf 50% van de gegevens van zijn gebruikers, die de Analytics en App Functionaliteit van DeepSeek bedient. Ter vergelijking: de ChatGPT-app verzamelt 36%.
Sommige media melden zorgen over veiligheidsrisico's gerelateerd aan DeepSeek's Chinese oorsprong (zowel in termen van dataverzameling als de mogelijke verspreiding van misinformatie) en de ondermijning van Amerikaanse rivalen. Beide zullen waarschijnlijk niet worden verlicht door Algemene voorwaarden en privacybeleid van DeepSeek, wat ongeveer zou duren 35 minuten om te lezenen worden beoordeeld als “heel moeilijk” op de Flesch-Kincaid leesbaarheidsschaal.
Ongeacht hoe uw gegevens worden gebruikt, Amazon Alexa verzamelt meer gegevens van zijn gebruikers dan welke andere AI-app dan ook opgenomen in dit onderzoek. Over het geheel genomen verzamelt het 93% van uw gegevens (of 116 individuele statistieken, voornamelijk contactgegevens, gebruikersinhoud en gebruiksgegevens).
Google Assistant komt daarna, verzamelen 86%, Gevolgd door Duolingo, die verzamelt 79%.
Aan de andere kant van de schaal, AI-beeldgenerator, stabiele diffusie, verzamelt geen gegevensDat blijkt uit de privacylabels op de Apple App Store-pagina.
Hoewel het waar is dat alle generatieve AI modellen vereisen enorme hoeveelheden data om getraind te worden, deze training vindt plaats voorafgaand aan de ontwikkeling van specifieke apps. In de meeste gevallen bezitten app-makers niet de AI-modellen die ze gebruiken; gebruikersdataverzameling is daarom gerelateerd aan de functionaliteit van de app zelf. Dit kan verklaren waarom er in de bovenstaande tabel geen informatie staat over sommige apps die we hebben onderzocht.
Navigeren door de algemene voorwaarden achter AI-tools
Laten we nu eens kijken naar de juridische documentatie achter verschillende AI-tools om erachter te komen hoe gemakkelijk of moeilijk ze te lezen zijnDit is gebaseerd op de Flesch-Kincaid-leestest op leerjaarniveau.
Dit systeem stelt teksten gelijk aan leesniveaus van Amerikaanse scholen (van de vijfde tot en met de twaalfde klas), dan College, College Graduate en Professional. Teksten op het niveau van de zesde klas worden gedefinieerd als “conversatie-Engels voor consumenten”, terwijl teksten met een professionele beoordeling worden beschreven als “extreem moeilijk te lezen”.
Hoe lager de leesbaarheidsscore, hoe moeilijker de tekst te lezen is.
Het is veelzeggend dat 'voldoende slaap krijgen' — cruciaal voor de fysieke en mentale gezondheid en cognitieve functies — op de derde plaats staat, na 'lange uren werken' en 'belastingaangiftes regelen'.
Een derde van de ondervraagden vond dat het niet mogelijk was om al hun administratie tijdens werkuren te doenen zeiden dat ze had vier extra uren per dag nodig om het allemaal door te komen.
Dit geeft een idee van hoe zwaar het kan zijn om een MKB-bedrijf te runnen, en dat de tijd die nodig is om de algemene voorwaarden te lezen achter de tools waarop ze vertrouwen zit niet gemakkelijk te vinden.
In deze context is de leestijd van 40 minuten van de Algemene Voorwaarden voor transcriptietools zoals Otter, Trint en Descript van groot belang.
En dat is ervan uitgaande dat het mogelijk is om te begrijpen de meest moeilijk te lezen algemene voorwaarden. Daarom hebben we de expertise van een juridisch expert ingeschakeld.
We hebben een juridisch expert op het gebied van AI en technologie gevraagd om ze te lezen en de belangrijkste punten uit te leggen die u moet weten
Josilda Ndreaj, een juridisch professional en gediplomeerd advocaat, heeft complexe juridische zaken behandeld namens Fortune 500-klanten en heeft diverse ondernemingen geadviseerd.
Meer recentelijk heeft zij als zelfstandig adviseur gericht op intellectueel eigendomsrecht op het kruispunt van blockchaintechnologie en kunstmatige intelligentie.
Josilda Ndreaj (LLM) is een jurist en beëdigd advocaat met expertise in het intellectuele eigendomsrecht (IE-recht).
Haar carrière als juridisch adviseur begon bij een prestigieus internationaal advocatenkantoor, dat Fortune 500-klanten bediende. Hier navigeerde Josilda door complexe juridische zaken en gaf ze advies aan verschillende bedrijven.
Gedreven door interesse in innovatie, creativiteit en opkomende technologieën, waagde Josilda zich vervolgens aan een onafhankelijke adviespraktijk en richtte zich op het intellectuele eigendomsrecht, waarbij hij zich richtte op het snijvlak van blockchaintechnologie en kunstmatige intelligentie.
Josilda heeft twee masterdiploma's in de rechten behaald: één met een specialisatie in burgerlijk en handelsrecht aan de Universiteit van Tirana en de andere met een specialisatie in intellectueel eigendomsrecht aan de Zhongnan Universiteit voor Economie en Recht.
Als zodanig was Josilda in een unieke positie om een selectie van de juridische documenten van deze AI-tools te beoordelen, waarbij we de belangrijkste punten eruit lichten ten behoeve van degenen onder ons die niet over twee masterdiploma's in de rechten beschikken.
Haar samenvattingen worden hieronder weergegeven:
Plagiaat en inbreuk op het auteursrecht
Gemini (voorheen Bard) is niet verplicht om bronnen van training te vermelden, dus we kunnen niet controleren of het is getraind op auteursrechtelijk beschermd materiaal. Gemini is niet uitgesloten van aansprakelijkheid voor dergelijke inbreuken; als een auteursrechthebbende aangifte doet, draagt Gemini enige verantwoordelijkheid. Maar het is belangrijk om op te merken dat Gemini is getraind op wat de gebruiker het geeft. Hiervoor, Gemini vereist een licentie van de gebruikerAls de gebruiker akkoord gaat met het verlenen van die licentie aan Gemini, maar zij (de gebruiker) niet daadwerkelijk de auteursrechten bezitten, verschuift de verantwoordelijkheid naar de gebruiker.
Gebruikers behouden eigenaarschap over hun invoer en prompts, maar output-eigendom is complexer. Gemini maakt dit niet duidelijk in zijn voorwaarden. Veel wetgevingen erkennen de intellectuele eigendomsrechten van machines niet. Het is echter twijfelachtig om te beweren dat de output "door mensen gegenereerd" is, zelfs als de gebruiker eigenaar is van de input.
Bedrijfseigenaren mogen nooit een output van Gemini publiceren zonder kruisverwijzingen, updates en controle door experts op nauwkeurigheid. Anders lopen ze het risico misleidende informatie te publiceren, wat reputatieschade of juridische gevolgen kan hebben.
Beveiliging en vertrouwelijkheid
Google (eigenaar van Gemini) verstrekt in zijn privacybeleid geen informatie over de manier waarop het met vertrouwelijke gegevens omgaat.
Gebruik
Google stelt in zijn Servicevoorwaarden niets over de vraag of door Gemini gegenereerde content voor commerciële doeleinden mag worden gebruikt. Het legt uit beperkingen voor zaken als intellectuele eigendomsrechten maar niets specifiek voor door AI gegenereerde content.
Plagiaat en inbreuk op het auteursrecht
Momenteel vereist geen enkele wetgeving dat ChatGPT openbaar maakt waarop het model is getraind. Omdat het zijn bronnen niet onthult, kunnen we niet weten of ChatGPT content levert of verwerkt die beschermd is door auteursrechtwetten. Als iemand auteursrechtelijk beschermde content van ChatGPT identificeert, ze kunnen een claim indienen om die inhoud te verwijderen.
Gebruikers moeten alle informatie van ChatGPT verifiëren. Dat komt omdat ChatGPT draagt geen verantwoordelijkheid voor het verstrekken van nauwkeurige, up-to-date content. Volgens de Disclaimer of Warranty sectie, de gebruiker neemt alle risico's van nauwkeurigheid op zich, kwaliteit, betrouwbaarheid, veiligheid en volledigheid. Controleer daarom altijd feiten van ChatGPT; kruisverwijzingen, updates en controleer ook de nauwkeurigheid bij experts. Bedrijfseigenaren kunnen juridische of reputatiegevolgen ondervinden als ze ChatGPT-inhoud niet verifiëren op nauwkeurigheid vóór publicatie.
Beveiliging en vertrouwelijkheid
ChatGPT verzamelt informatie uit invoer, inclusief persoonlijke informatie. om mogelijk zijn modellen te trainen (overeenkomstig het privacybeleid). De gebruiker kan zich afmelden. De situatie verandert als gegevens worden verzonden via API-verbindingen (ChatGPT Enterprise, Team, etc.); dat komt omdat ChatGPT gebruikt geen invoer van zakelijke klanten om modellen te trainen. ChatGPT heeft beveiligingsmaatregelen, maar gaat niet expliciet in op de verantwoordelijkheid voor een inbreuk op de beveiliging. Het hangt allemaal af van regionale wetten.
Gebruik
ChatGPT-gebruikers zijn eigenaar van hun invoer- en uitvoerinhoud; de gebruikers moeten er daarom voor zorgen dat de inhoud geen wetten overtreedt. Gebruikers kunnen niet beweren dat de inhoud door mensen is gegenereerd, maar je hoeft ook niet te zeggen dat het door AI is gegenereerd. Zolang gebruikers zich houden aan regionale wetten en de Gebruiksvoorwaarden, kan ChatGPT-content worden gebruikt voor commerciële doeleinden, op sociale media, voor betaalde advertenties en andere kanalen. Het is raadzaam om feiten te controleren, referenties te maken en je aan de wetten te houden voordat je content van ChatGPT publiceert.
Plagiaat en inbreuk op het auteursrecht
Noch het Privacybeleid, noch de Voorwaarden specificeren of DeepSeek's AI-tool is getraind op auteursrechtelijk beschermd materiaal. Bovendien bieden ze ook geen garanties dat de outputs geen inbreuk maken op iemands auteursrecht. DeepSeek's Gebruiksvoorwaarden stellen dat Gebruikers behouden rechten op hun invoer (prompts), maar dit betekent niet per se dat ze auteursrechtelijk beschermd zijn. Gebruikers moeten dus maatregelen nemen om ervoor te zorgen dat de content die ze als prompts gebruiken, niet het intellectuele eigendom van iemand anders is.
In het privacybeleid van DeepSeek wordt uitgelegd dat gebruikersinvoer wordt verwerkt om uitvoer te genereren, maar ook om de service van DeepSeek verbeteren. Dit bevat 'het trainen en verbeteren van [hun] technologie'. Gebruikers moeten daarom voorzichtig zijn met het invoeren van gevoelige informatie, en hoewel DeepSeek 'commercieel redelijk' maatregelen die zijn genomen om de gegevens en informatie die als input worden gebruikt te beschermen, biedt het geen absolute garanties. De voorwaarden van DeepSeek stellen dat ze geen input of output publiceren in openbare forums, maar sommige kunnen met derden worden gedeeld.
Gebruik
Alle content die gebruikers genereren via DeepSeek kan worden gebruikt voor commerciële doeleinden, maar vanwege de grijze gebieden rond plagiaat en nauwkeurigheid, moeten gebruikers stappen ondernemen om de content te verifiëren voordat ze deze op deze manier gebruiken. De Servicevoorwaarden van DeepSeek verwijzen niet naar enige beperking met betrekking tot waar ter wereld gebruikers deze content kunnen publiceren, maar ze stellen duidelijk dat gebruikers verklaren dat het door AI gegenereerd is 'om het publiek te waarschuwen voor de synthetische aard van de inhoud'.
Plagiaat en inbreuk op het auteursrecht
Canva is wettelijk niet verplicht om de bronnen van trainingsdata bekend te maken. Daarom weten we niet of auteursrechtelijk beschermd materiaal wordt gebruikt. De gebruiker is eigenaar van alle invoer- en uitvoerinhoud (niet Canva), maar Canva kan die content gebruiken om haar diensten te verbeteren.
Net als ChatGPT, geeft DALL-E geen bronnen voor zijn modeltraining. Als u echter auteursrechtelijk beschermde content vindt, kan een claim voor verwijdering indienen. Het is moeilijk om te controleren of DALL-E inbreuk maakt op een auteursrecht, aangezien geen enkele wetgeving vereist dat DALL-E zijn gegevensbronnen bekendmaakt. Gebruikersinvoer, volgens de Voorwaarden, kan worden gebruikt om het model van DALL-E te trainen — zelfs als het auteursrechtelijk beschermde content is. De gebruiker kan zich hiervoor afmelden.
Het privacybeleid en de algemene voorwaarden van DALL-E gaan nooit expliciet in op verantwoordelijkheid in het geval van een inbreuk op de beveiliging. DALL-E heeft echter wel beveiligingsmaatregelen getroffen. Wie de verantwoordelijkheid draagt in het geval van een hack, hangt af van de regionale wetgeving.
U kunt DALL-E gebruiken voor commerciële doeleinden, zolang u zich aan alle wetten en de DALL-E-voorwaarden houdt. Regelgeving kan veranderen, maar op het moment van schrijven zijn gebruikers welkom om DALL-E-inhoud te publiceren op sociale media, in advertenties en op andere kanalen. Gebruikers moeten altijd de juiste referenties maken en de juistheid van de feiten controleren om te voorkomen dat ze wetten overtreden.
Plagiaat en inbreuk op het auteursrecht
Bing is niet verplicht om zijn datatrainingsbronnen te delen, waardoor het erg moeilijk is om erachter te komen of Bing AI onbedoeld auteursrechtelijk beschermde content gebruikt. Hoewel het lastig is om te identificeren, kunnen gebruikers claims indienen over auteursrechtelijk beschermde content. De Microsoft Services Agreement zegt dat Bing AI gebruikersinvoer en -uitvoer gebruikt om zijn model te verbeteren, maar er is niets formeels om diefstal van intellectueel eigendom te voorkomen.
Microsoft claimt geen eigendom van gebruikersinhoud, maar het reguleert niet specifiek door AI gegenereerde content, waar het eigendom onzeker is. De Services Agreement staat mensen toe om content te gebruiken voor commerciële doeleinden, met enkele belangrijke bepalingen: u moet accepteren dat door AI gegenereerde content geen menselijke creativiteit heeft, dus het kan niet worden geclaimd als intellectueel eigendom; u mag ook geen inbreuk maken op de intellectuele eigendomsrechten van anderen. Kortom, u mag geen intellectueel eigendom van anderen gebruiken, maar wat u ook maakt met Bing is waarschijnlijk niet uw eigen intellectuele eigendom.
Plagiaat en inbreuk op het auteursrecht
Quillbot heeft geen verplichting om bronnen te onthullen die het gebruikt om modellen te trainen. Het bedrijf probeert echter op interessante wijze één unieke situatie te reguleren: wat als de bron van modeltraining de output van de AI is? Quillbot probeert in wezen de potentie voor auteursrechtelijk beschermde output te minimaliseren, maar stelt dat er nog steeds een kans is dat output auteursrechtelijk beschermd is als gebruikers auteursrechtelijk beschermde content invoeren. Om het nog verwarrender te maken, probeert Quillbot alle gebieden te bestrijken door te zeggen dat gebruikers Quillbot een onbeperkte, sublicentieerbare licentie verlenen, terwijl ze ook beweren dat gebruikers al hun outputs bezitten.
Quillbot heeft maatregelen om de privacy van de gebruiker te beschermen, maar het kan nog steeds persoonlijke gegevens verwerken. Er zijn speciale beschermingen voor de privacy van kinderen. De verantwoordelijkheid voor gegevensverlies door een hack wordt per geval bekeken. Quillbot stelt dat de gebruiker maatregelen moet nemen om te voorkomen dat zijn of haar persoonlijke gegevens worden gehackt, en dat Quillbot elementen voor gegevensbescherming heeft.
Gebruik
Quillbot-gebruikers kunnen gegenereerde content publiceren voor commerciële doeleinden, maar u moet mogelijk een aantal regels volgen, zoals het niet publiceren van schadelijke of misleidende content. Quillbot's Algemene Voorwaarden zeg niet dat je moet verklaren dat de inhoud ervan door AI is gegenereerd. Kortom, de gebruiker kan inhoud publiceren die door Quillbot is gegenereerd zolang het geen wetten of rechten schendt.
Plagiaat en inbreuk op het auteursrecht
Pixlr onthult zijn bronnen voor AI-modeltraining niet, omdat ze daartoe niet wettelijk verplicht zijn. In de voorwaarden staat dat de gebruiker eigenaar is van de content, maar gebruikers ook Pixlr een licentie verlenen om de inhoud te gebruikenDit is een poging om het gebruik van auteursrechtelijk beschermde inhoud te minimaliseren.
Gebruikers mogen door AI gegenereerde content die via Pixlr is gemaakt, publiceren voor commerciële doeleinden (hoewel er wel enkele voorwaarden gelden). De voorwaarden vereisen niet dat je iets AI-gegenereerd vermeldt. Gebruikers zijn echter nog steeds aansprakelijk voor het schenden van rechten of wetten.
Midjourney traint zijn model met gebruikersinvoer, zelfs als het persoonlijke of vertrouwelijke gegevens. Midjourney beweert dat de gebruiker voorzichtig moet zijn met gevoelige gegevens, dus het is niet hun probleem. Het bedrijf probeert bepaalde informatie te filteren voor modeltraining, maar dat is niet vereist. Midjourney claimt geen verantwoordelijkheid voor beveiligingsproblemen die kunnen ontstaan door de acties van een gebruiker.
Gebruik
Midjourney-gebruikers kunnen gegenereerde content publiceren voor commerciële doeleinden. Sommige voorwaarden, zoals de vereiste om te abonneren op de Pro-versie als het bedrijf meer dan $ 1 miljoen per jaar verdient, toepassen. Op het moment van schrijven hoeven gebruikers niet te beweren dat iets door AI is gegenereerd vanuit Midjourney, ook al is er wetgeving in beweging om dit te veranderen. Gebruikers kunnen over het algemeen alle Modjourney-inhoud gebruiken als deze geen rechten of wetten schendt.
Clipchamp en Microsoft houden zich afzijdig van het reguleren van door AI gegenereerde content, nooit beweren dat Microsoft eigenaar is van de inhoudTechnisch gezien zegt Microsoft dat de gebruiker het bezit, maar zonder de intellectuele eigendomsrechten. De gebruiker kan Clipchamp-inhoud publiceren voor commerciële doeleinden met twee bepalingen: u mag geen inbreuk maken op intellectuele eigendomsrechten, of beweren dat u intellectuele eigendomsrechten hebt voor gegenereerde inhoud.
Plagiaat en inbreuk op het auteursrecht
De Looka Algemene Voorwaarden staat dat het bedrijf geen verplichtingen heeft om trainingsbronnen voor gegevens te delen, dus dat doen ze niet. Gebruikers dragen alle risico's bij het gebruik van door Looka gegenereerde content.
Nauwkeurigheid en betrouwbaarheid
Looka aanvaardt geen enkele verantwoordelijkheid voor de nauwkeurigheid en betrouwbaarheid van de output van haar AI-tools. Gebruikers moeten alle feiten verifiëren en controleer op betrouwbaarheid.
Looka-gebruikers mogen door AI gegenereerde content gebruiken voor commerciële doeleinden, maar ze moeten zich mogelijk aan bepaalde voorwaarden houden of een vergoeding betalen. Gebruikers hoeven hun gegenereerde content niet te labelen als AI-gegenereerd. Gebruikers moeten voorkomen dat ze gegenereerde content publiceren die rechten of wetten schendt.
Plagiaat en inbreuk op het auteursrecht
Het is niet mogelijk om te zeggen of Speechify traint zijn model op auteursrechtelijk beschermd materiaal. We weten het gewoon niet. Speechify's Terms raden aan om geen auteursrechtelijk beschermd materiaal te gebruiken voor inputs, wat suggereert dat sommige outputs mogelijk auteursrechtelijk beschermde data bevatten. Speechify beweert hiervoor geen verantwoordelijkheid te dragen.
Nauwkeurigheid en betrouwbaarheid
Speechify, volgens zijn Algemene Voorwaarden, neemt geen verantwoordelijkheid voor de nauwkeurigheid van de outputs. Gebruikers dienen altijd te controleren op tijdigheid, betrouwbaarheid en nauwkeurigheid met Speechify.
Kapwing-gebruikers nemen alle risico's wanneer ze ervoor kiezen om vertrouwelijke informatie in hun AI-tool in te voeren. Het biedt ook geen garantie of verantwoordelijkheid over de veiligheid van de service.
Gebruik
Je kunt Kapwing-content commercieel publiceren, maar Kapwing adviseert gebruikers om voorzichtig te zijn. In hun voorwaarden staat niet of gebruikers moeten aangeven dat de output van Kapwing door AI is gegenereerd.
Otter.ai sluit zichzelf uit van verantwoordelijkheid met betrekking tot nauwkeurigheid en betrouwbaarheid, dus gebruikers moeten altijd de inhoud verifiëren. Het gebruiken van feitelijk misleidende of onjuiste informatie kan juridische of reputatieproblemen voor de gebruiker veroorzaken.
PhotoRoom kan gebruikersinvoer en -uitvoer gebruiken voor modeltraining, maar er is beperkte informatie over of de service dat wel of niet doet. De PhotoRoom-voorwaarden herinneren gebruikers eraan om geen auteursrechtelijk beschermde content in te voeren. Gebruikers dragen alle verantwoordelijkheid voor deze.
PhotoRoom-inhoud kan voor commerciële doeleinden worden gebruikt, maar er kunnen voorwaarden gelden, zoals het aanmelden voor een abonnement. De voorwaarden stellen dat u content niet hoeft te markeren als door AI gegenereerd. Gebruikers kunnen andere gevolgen ondervinden als ze rechten of wetten schenden.
Disclaimer
Deze informatie is alleen bedoeld voor algemene informatiedoeleinden en mag niet worden opgevat als juridisch advies. Ecommerce Platforms aanvaardt geen verantwoordelijkheid voor fouten of omissies. Raadpleeg een geschikte juridische professional voor advies en begeleiding op maat voor uw specifieke behoeften en omstandigheden.
Conclusie
De alomtegenwoordigheid van AI maakt het steeds waarschijnlijker dat we allemaal tools en apps gebruiken die op deze technologie zijn gebaseerd. Toch hebben velen van ons niet de luxe om de benodigde tijd te nemen om de algemene voorwaarden ervan te lezen.
Gezien het aantal AI-voorwaarden dat we hebben beoordeeld met lage leesbaarheidsscores, lijkt het erop dat De ondoorgrondelijkheid van de juridische taal in deze documenten weerhoudt gebruikers ervan om zelfs maar te proberen ze te begrijpen.
We hebben een jurist ingeschakeld om de documenten voor ons te analyseren, maar het is de vraag of dit nodig is.
Wij hopen dat dit onderzoek, inclusief de leesbaarheidsbeoordelingen en de expertise van Josilda Ndreaj over de algemene voorwaarden waar u op moet letten, u zal helpen bij het maken van keuzes over welke AI-apps en -tools u wilt gebruiken.
Methodologie en bronnen
Hoe we het onderzoek hebben uitgevoerd
We begonnen met een seedlist van ongeveer 90 AI-tools en apps en verzamelden eerst de juridische documentatie van elke tool, van algemene voorwaarden tot privacybeleid. Vervolgens registreerden we de woordlengtes van deze documenten en berekenden we hun leesbaarheidsscore met behulp van het beoordelingssysteem van Flesch-Kincaid. Vervolgens schakelden we de hulp in van een juridisch expert, Josilda Ndreaj (LLM), die een selectie van deze juridische documenten beoordeelde en belangrijke punten identificeerde waar gebruikers op moeten letten.
Voor ongeveer 30 van de AI-tools met mobiele app-versies hebben we elk op de Apple App Store gezocht en hun privacylabels vastgelegd die op hun vermeldingen worden weergegeven. Deze zijn onderverdeeld in 14 categorieën van gegevens die van gebruikers kunnen worden verzameld en met welk doel. Om te berekenen welke AI-apps de meeste gegevens verzamelden, hebben we gemeten hoeveel van de 14 mogelijke categorieën deze apps hun gebruikers volgden.
Het is belangrijk om op te merken dat deze 14 categorieën verder zijn onderverdeeld in individuele datapunten. Bijvoorbeeld, 'Contactgegevens' bevat vijf datapunten, namelijk: 'Naam', 'E-mailadres', 'Telefoonnummer', 'Fysiek adres' en 'Contactgegevens andere gebruiker'. Om erachter te komen welke apps de meeste individuele datapunten verzamelen, bekijkt u de laatste kolom in elk van de tabellen.
Sommige apps verzamelen meer individuele datapunten dan die welke hoger in de rangschikking staan. Dit komt doordat onze rangschikkingsmethodologie bekijkt welke apps data verzamelen in de meeste categorieën in het algemeen, wat duidt op een breder en daarom 'completer' beeld van gebruikersdata, in plaats van de diepte van de informatie die ze verzamelen in elke categorie.
bronnen
Apple App Store pagina's voor elke app, actueel vanaf februari 2025.
Diverse documentatie voor elke AI-app (inclusief algemene voorwaarden en privacybeleid) is in februari 2024 geraadpleegd en beoordeeld door Josilda Ndreaj, met uitzondering van DeepSeek, dat in januari 2025 is geraadpleegd en beoordeeld.
Flesch-Kincaid leesbaarheidscalculator.
Woordenteller.
Verschillende samenvattingen om de eerste lijst met AI-apps en -tools samen te stellen, waaronder:
Als u de eigenaar bent van een van de AI-tools die in dit onderzoek zijn opgenomen en u wilt de informatie op deze pagina betwisten, zijn we bereid deze te updaten, afhankelijk van onze beoordeling van het bewijs dat u levert. Wanneer u hierover contact met ons opneemt, vragen we u vriendelijk om:
zakelijke documenten die uw legitimiteit aantonen (bijvoorbeeld een oprichtingsakte of registratiedocumenten)
de informatie op deze pagina waarvan u denkt dat deze verouderd is (wees specifiek)
hoe het moet worden bijgewerkt en waarom, met links naar documentatie die dit ondersteunt (bijvoorbeeld wijzigingen in de Servicevoorwaarden)
Neem alsjeblieft contact met ons op [e-mail beveiligd] met als onderwerp: 'Correctieverzoek: onderzoek naar AI-tools', plus de naam van de AI-tool waarover u contact met ons opneemt.
Bogdan Rancea is medeoprichter van Ecommerce-Platforms.com en hoofdconservator van ecomm.design, een showcase van de beste e-commercewebsites. Met meer dan 12 jaar ervaring in de digitale handelssector heeft hij een schat aan kennis en een scherp oog voor geweldige online retailervaringen. Als e-commerce tech explorer test en beoordeelt Bogdan verschillende platforms en designtools zoals Shopify, Figma en Canva en biedt praktisch advies voor winkeleigenaren en ontwerpers.
Deze website maakt alleen gebruik van cookies voor essentiële functionaliteit en analyses zoals beschreven in onze cookie beleid.