Achter de kleine lettertjes: AI-apps en privacy begrijpen

Als u zich abonneert op een dienst via een link op deze pagina, kan Reeves and Sons Limited een commissie verdienen. Zie onze ethische uitspraak.

Kunstmatige intelligentie is snel onderdeel geworden van de hedendaagse tijdsgeest, maar ethische overwegingen rondom dit onderwerp zijn nog steeds niet opgelost. Hoeveel gebruikers zijn zich volledig bewust van waar ze zich voor aanmelden?

Ecommerce Platforms gaat dieper in op de algemene voorwaarden en het privacybeleid van de populairste AI-tools en -apps en legt uit wat u moet weten wanneer u deze tools gebruikt voor uw dagelijkse zakelijke behoeften.

We hebben de gegevens en persoonlijke informatie die deze tools verzamelen (en met welk doel) geanalyseerd om u te helpen bepalen welke AI-hulpmiddelen, software en platforms het meest geschikt zijn voor het beoogde gebruik. We hebben ook een juridisch expert geraadpleegd om het jargon te ontleden achter de algemene voorwaarden van deze tools.

We hebben de privacylabels van de Apple App Store voor ongeveer 30 beschikbare mobiele app-versies van populaire AI-tools geanalyseerd om te begrijpen welke tools uw gegevens verzamelen en waarom. 

De gegevens die van gebruikers worden verzameld (en het doel ervan) worden verdeeld in 14 categorieën. Zo is het mogelijk om vast te stellen welke apps de meeste gebruikersgegevens verzamelen en bijhouden.

Voor meer informatie kunt u terecht in het hoofdstuk Methodologie aan het einde van deze pagina.

Welke gegevens verzamelen deze AI-apps?

De AI-tools die in dit onderzoek zijn beoordeeld, verzamelen verschillende soorten gegevens. Sommige hiervan richten zich op persoonlijke gegevens van gebruikers — van schermnamen en bankgegevens tot hun gezondheid en conditie, en zelfs gevoelige informatie zoals ras/etniciteit, seksuele geaardheid, genderidentiteit en politieke opvattingen. 

Andere hebben betrekking op content die door gebruikers is gemaakt (zoals e-mails en berichten, foto's, video's en geluidsopnames), of hoe gebruikers omgaan met het product zelf, zoals hun in-app zoekgeschiedenis of welke advertenties ze hebben gezien. Nog onpersoonlijker is de diagnostische informatie die wordt verzameld om crashgegevens of energieverbruik te tonen.

Waarom verzamelen deze AI-apps gegevens?

Er zijn verschillende redenen waarom apps gegevens verzamelen, waarvan sommige als meer gerechtvaardigd kunnen worden beschouwd dan andere — biometrie of contactgegevens kunnen bijvoorbeeld worden gebruikt om de identiteit van de gebruiker te verifiëren.

Op dezelfde manier kan toegang tot bepaalde gegevens vereist zijn om een ​​app correct te laten functioneren, bijvoorbeeld om fraude te voorkomen of de schaalbaarheid en prestaties te verbeteren.

Zo hebben berichten-apps toegang nodig tot contacten, telefooncamera's en microfoons om te kunnen bellen, terwijl taxi- of bezorg-apps geolocatie nodig hebben.

Minder essentiële redenen om gegevens te verzamelen zijn onder meer: reclame of marketing door de ontwikkelaar van de app (bijvoorbeeld om marketingcommunicatie naar uw gebruikers te sturen); het mogelijk maken van reclame door derden (door gegevens van andere apps bij te houden om bijvoorbeeld gerichte advertenties aan de gebruiker te richten); en het analyseren van gebruikersgedrag voor doeleinden zoals het beoordelen van de effectiviteit van bestaande functies of het plannen van nieuwe functies.

Hoi mobiele gebruiker 👋 De onderstaande tabellen kunnen worden horizontaal gescrold om alle gegevens te zien, maar deze pagina ziet er zeker beter uit op Desktop.

AI-apps die uw gegevens verzamelen om te delen met externe adverteerders

Kolomkoppen met knoppen zijn sorteerbaar.
AI-app % gegevens gedeeld met anderen Browsing Geschiedenis Contactgegevens Identifiers Locatie andere gegevens Aankopen Zoekgeschiedenis Gebruiksgegevens Aantal verzamelde datapunten
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Pixie 14% 1 1 2
baarmoeder 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
lensa 7% 1 1
Spraakmaken 7% 1 1
Sterren AI 7% 1 1

Van alle AI-apps die in ons onderzoek zijn opgenomen, Canva, een grafisch ontwerptool, verzamelt de meeste gegevens van zijn gebruikers voor advertentiedoeleinden van derden — rond de 36%. Daarentegen verzamelen de vijf apps die de minste data verzamelen voor dit doel iets meer dan 7%.

De gegevens die de app van Canva van u verzamelt en deelt met derden, zijn onder andere uw zoekgeschiedenis, locatie, e-mailadres en andere informatie die in de bovenstaande tabel wordt weergegeven. 

Op de voet gevolgd door Canva is de gamified taal-leer-app Duolingo (~36%), Google Assistant (~21%), en Microsofts Bing (~14%) — allemaal uw gegevens ook delen met derden

Van de vijf apps die de minste gegevens verzamelen, zijn er maar sterrenhemel (een beeldgenerator) beperkt zich tot het uitsluitend delen van gebruiksgegevens.

AI-apps die uw gegevens verzamelen voor hun eigen voordeel

Kolomkoppen met knoppen zijn sorteerbaar.
app % gegevens verzameld voor eigen voordeel van de app Browsing Geschiedenis Contactgegevens Identifiers Locatie Aankopen Zoekgeschiedenis Gebruiksgegevens Aantal verzamelde datapunten
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon's Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
Fotokamer 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
Sterren AI 14% 2 1 3
Bing 14% 1 1 2
lensa 14% 1 1 2
Otter 7% 2 2
Eten 7% 1 1
Poe 7% 1 1
Pixie 7% 1 1
Spraakmaken 7% 1 1
baarmoeder 7% 1 1

Canva staat ook bovenaan de lijst voor AI-apps die gebruikersgegevens verzamelen voor hun eigen advertentie- of marketingdoeleindenOm dit te doen, verzamelt Canva ongeveer 43% van de gegevens van hun gebruikers.

Op de derde plaats, Amazon Alexa verzamelt 36% van uw gegevens voor hetzelfde doel. Dit omvat uw e-mailadres, fysieke adres, telefoonnummer, zoekgeschiedenis en aankoopgeschiedenis, plus vijf andere datapunten. Google Assistant verzamelt en deelt om deze reden hetzelfde percentage gegevens, maar dan verdeeld over acht afzonderlijke datapunten, vergeleken met de tien die Amazon Alexa verzamelt.

De Speechify, een spraakgenerator die tekst naar spraak kan omzetten, behoort tot de apps die de minste gegevens verzamelen. Volgens de privacylabels in de Apple App Store-vermelding verzamelt Speechify slechts één gegevenspunt voor eigen gewin; uw apparaat-ID.

AI-apps die uw gegevens voor welk doel dan ook verzamelen

Kolomkoppen met knoppen zijn sorteerbaar.
app % verzamelde gegevens Browsing Geschiedenis Contactgegevens Contacten Diagnostiek Financiële info Gezondheid en fitness Identifiers Locatie andere gegevens Aankopen Zoekgeschiedenis Gevoelige informatie Gebruiksgegevens Gebruikers Content Aantal verzamelde datapunten
Amazon's Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Otter 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
Diepzoeken 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA Spreek 43% 2 6 6 3 3 3 23
Fotokamer 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Perplexiteit AI 36% 6 6 2 1 6 21
1 / 2

Alle AI-modellen vereisen een vorm van training via machinaal leren, wat betekent dat ze hebben gegevens nodig.

Als we willen dat AI-tools verbeteren en nuttiger wordenkan onze privacy worden gezien als een noodzakelijke afweging tegen het verstrekken van deze gegevens.

De vraag is echter waar de grens tussen nut en exploitatie moet worden getekend en waarom, is een lastige vraag.

Gezien de huidige bekendheid ervan is het de moeite waard om DeepSeek te bespreken. In de vermelding in de Apple App Store staat dat DeepSeek geen gebruikersgegevens verzamelt voor eigen gewin (bijvoorbeeld DeepSeeks eigen marketing en reclame) of om te delen met derden.

Maar het is de moeite waard om erop te wijzen dat hun Privacybeleid anders vermeldt (hierover later meer). 

De De DeepSeek-app verzamelt zelf 50% van de gegevens van zijn gebruikers, die de Analytics en App Functionaliteit van DeepSeek bedient. Ter vergelijking: de ChatGPT-app verzamelt 36%.

Sommige media melden zorgen over veiligheidsrisico's gerelateerd aan DeepSeek's Chinese oorsprong (zowel in termen van dataverzameling als de mogelijke verspreiding van misinformatie) en de ondermijning van Amerikaanse rivalen. Beide zullen waarschijnlijk niet worden verlicht door Algemene voorwaarden en privacybeleid van DeepSeek, wat ongeveer zou duren 35 minuten om te lezenen worden beoordeeld als “heel moeilijk” op de Flesch-Kincaid leesbaarheidsschaal.

Ongeacht hoe uw gegevens worden gebruikt, Amazon Alexa verzamelt meer gegevens van zijn gebruikers dan welke andere AI-app dan ook opgenomen in dit onderzoek. Over het geheel genomen verzamelt het 93% van uw gegevens (of 116 individuele statistieken, voornamelijk contactgegevens, gebruikersinhoud en gebruiksgegevens).

Google Assistant komt daarna, verzamelen 86%, Gevolgd door Duolingo, die verzamelt 79%.

Aan de andere kant van de schaal, AI-beeldgenerator, stabiele diffusie, verzamelt geen gegevensDat blijkt uit de privacylabels op de Apple App Store-pagina.

Hoewel het waar is dat alle generatieve AI modellen vereisen enorme hoeveelheden data om getraind te worden, deze training vindt plaats voorafgaand aan de ontwikkeling van specifieke apps. In de meeste gevallen bezitten app-makers niet de AI-modellen die ze gebruiken; gebruikersdataverzameling is daarom gerelateerd aan de functionaliteit van de app zelf. Dit kan verklaren waarom er in de bovenstaande tabel geen informatie staat over sommige apps die we hebben onderzocht.

Navigeren door de algemene voorwaarden achter AI-tools

Laten we nu eens kijken naar de juridische documentatie achter verschillende AI-tools om erachter te komen hoe gemakkelijk of moeilijk ze te lezen zijnDit is gebaseerd op de Flesch-Kincaid-leestest op leerjaarniveau.

Dit systeem stelt teksten gelijk aan leesniveaus van Amerikaanse scholen (van de vijfde tot en met de twaalfde klas), dan College, College Graduate en Professional. Teksten op het niveau van de zesde klas worden gedefinieerd als “conversatie-Engels voor consumenten”, terwijl teksten met een professionele beoordeling worden beschreven als “extreem moeilijk te lezen”.

Hoe lager de leesbaarheidsscore, hoe moeilijker de tekst te lezen is.

Kolomkoppen met knoppen zijn sorteerbaar.
Clipchamp 3 uur 16 minuten 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 uur 20 minuten 35.4 🤯🤯🤯🤯🤯
veed.io 2 uur 15 minuten 37.9 🤯🤯🤯🤯🤯
Facetune 2 uur 4 minuten 34.4 🤯🤯🤯🤯🤯🤯
DeB.AI 1 uur 47 minuten 31.4 🤯🤯🤯🤯🤯🤯
Otter 1 uur 11 minuten 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 uur 9 minuten 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 uur 6 minuten 30.9 🤯🤯🤯🤯🤯🤯
Spraakmaken 1 uur 6 minuten 35.0 🤯🤯🤯🤯🤯🤯
Startbaan 1 uur 2 minuten 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

In 2023 zal de Britse zakelijke verzekeringsmaatschappij Superscript ondervroeg de eigenaren van 500 kleine en middelgrote ondernemingen (KMO's) om erachter te komen waar ze het meeste tijd aan besteden.

Het is veelzeggend dat 'voldoende slaap krijgen' — cruciaal voor de fysieke en mentale gezondheid en cognitieve functies — op de derde plaats staat, na 'lange uren werken' en 'belastingaangiftes regelen'.

Een derde van de ondervraagden vond dat het niet mogelijk was om al hun administratie tijdens werkuren te doenen zeiden dat ze had vier extra uren per dag nodig om het allemaal door te komen.

Dit geeft een idee van hoe zwaar het kan zijn om een ​​MKB-bedrijf te runnen, en dat de tijd die nodig is om de algemene voorwaarden te lezen achter de tools waarop ze vertrouwen zit niet gemakkelijk te vinden.

In deze context is de leestijd van 40 minuten van de Algemene Voorwaarden voor transcriptietools zoals Otter, Trint en Descript van groot belang. 

En dat is ervan uitgaande dat het mogelijk is om te begrijpen de meest moeilijk te lezen algemene voorwaarden. Daarom hebben we de expertise van een juridisch expert ingeschakeld.

Josilda Ndreaj, een juridisch professional en gediplomeerd advocaat, heeft complexe juridische zaken behandeld namens Fortune 500-klanten en heeft diverse ondernemingen geadviseerd.

Meer recentelijk heeft zij als zelfstandig adviseur gericht op intellectueel eigendomsrecht op het kruispunt van blockchaintechnologie en kunstmatige intelligentie.

Josilda Ndreaj (LLM) is een jurist en beëdigd advocaat met expertise in het intellectuele eigendomsrecht (IE-recht).

Haar carrière als juridisch adviseur begon bij een prestigieus internationaal advocatenkantoor, dat Fortune 500-klanten bediende. Hier navigeerde Josilda door complexe juridische zaken en gaf ze advies aan verschillende bedrijven.

Gedreven door interesse in innovatie, creativiteit en opkomende technologieën, waagde Josilda zich vervolgens aan een onafhankelijke adviespraktijk en richtte zich op het intellectuele eigendomsrecht, waarbij hij zich richtte op het snijvlak van blockchaintechnologie en kunstmatige intelligentie.

Josilda heeft twee masterdiploma's in de rechten behaald: één met een specialisatie in burgerlijk en handelsrecht aan de Universiteit van Tirana en de andere met een specialisatie in intellectueel eigendomsrecht aan de Zhongnan Universiteit voor Economie en Recht.

Als zodanig was Josilda in een unieke positie om een ​​selectie van de juridische documenten van deze AI-tools te beoordelen, waarbij we de belangrijkste punten eruit lichten ten behoeve van degenen onder ons die niet over twee masterdiploma's in de rechten beschikken.

Haar samenvattingen worden hieronder weergegeven:

Gemini (voorheen Bard) is niet verplicht om bronnen van training te vermelden, dus we kunnen niet controleren of het is getraind op auteursrechtelijk beschermd materiaal. Gemini is niet uitgesloten van aansprakelijkheid voor dergelijke inbreuken; als een auteursrechthebbende aangifte doet, draagt ​​Gemini enige verantwoordelijkheid. Maar het is belangrijk om op te merken dat Gemini is getraind op wat de gebruiker het geeft. Hiervoor, Gemini vereist een licentie van de gebruikerAls de gebruiker akkoord gaat met het verlenen van die licentie aan Gemini, maar zij (de gebruiker) niet daadwerkelijk de auteursrechten bezitten, verschuift de verantwoordelijkheid naar de gebruiker.

Gebruikers behouden eigenaarschap over hun invoer en prompts, maar output-eigendom is complexer. Gemini maakt dit niet duidelijk in zijn voorwaarden. Veel wetgevingen erkennen de intellectuele eigendomsrechten van machines niet. Het is echter twijfelachtig om te beweren dat de output "door mensen gegenereerd" is, zelfs als de gebruiker eigenaar is van de input.

Nauwkeurigheid en betrouwbaarheid

Wees altijd voorzichtig wanneer u op Gemini vertrouwt voor nauwkeurige informatie. In de Servicevoorwaarden staat dat de juistheid niet automatisch mag worden aangenomen door de gebruiker. Daarom moet u alle content die door Gemini wordt gegenereerd, controleren op feiten. 

Bedrijfseigenaren mogen nooit een output van Gemini publiceren zonder kruisverwijzingen, updates en controle door experts op nauwkeurigheid. Anders lopen ze het risico misleidende informatie te publiceren, wat reputatieschade of juridische gevolgen kan hebben.

Beveiliging en vertrouwelijkheid

Google (eigenaar van Gemini) verstrekt in zijn privacybeleid geen informatie over de manier waarop het met vertrouwelijke gegevens omgaat.

Gebruik

Google stelt in zijn Servicevoorwaarden niets over de vraag of door Gemini gegenereerde content voor commerciële doeleinden mag worden gebruikt. Het legt uit beperkingen voor zaken als intellectuele eigendomsrechten maar niets specifiek voor door AI gegenereerde content.

Momenteel vereist geen enkele wetgeving dat ChatGPT openbaar maakt waarop het model is getraind. Omdat het zijn bronnen niet onthult, kunnen we niet weten of ChatGPT content levert of verwerkt die beschermd is door auteursrechtwetten. Als iemand auteursrechtelijk beschermde content van ChatGPT identificeert, ze kunnen een claim indienen om die inhoud te verwijderen.

In de voorwaarden van ChatGPT staat dat gebruikersinvoer, zelfs als deze auteursrechtelijk beschermd is, wordt gebruikt om de service te verbeteren en het model te trainen; en de gebruiker kan zich hier niet voor afmelden. De voorwaarden van ChatGPT zeggen dat een gebruiker is eigenaar van alle invoer- en uitvoerinhoud (als de invoerinhoud al legaal wordt gebruikt), maar dat garandeert niet dat de gebruiker het auteursrecht op die invoer- en uitvoerinhoud bezit. Bovendien, Gebruikers kunnen niets van ChatGPT laten doorgaan voor 'door mensen gegenereerd'.

Nauwkeurigheid en betrouwbaarheid

Gebruikers moeten alle informatie van ChatGPT verifiëren. Dat komt omdat ChatGPT draagt ​​geen verantwoordelijkheid voor het verstrekken van nauwkeurige, up-to-date content. Volgens de Disclaimer of Warranty sectie, de gebruiker neemt alle risico's van nauwkeurigheid op zich, kwaliteit, betrouwbaarheid, veiligheid en volledigheid. Controleer daarom altijd feiten van ChatGPT; kruisverwijzingen, updates en controleer ook de nauwkeurigheid bij experts. Bedrijfseigenaren kunnen juridische of reputatiegevolgen ondervinden als ze ChatGPT-inhoud niet verifiëren op nauwkeurigheid vóór publicatie. 

Beveiliging en vertrouwelijkheid

ChatGPT verzamelt informatie uit invoer, inclusief persoonlijke informatie. om mogelijk zijn modellen te trainen (overeenkomstig het privacybeleid). De gebruiker kan zich afmelden. De situatie verandert als gegevens worden verzonden via API-verbindingen (ChatGPT Enterprise, Team, etc.); dat komt omdat ChatGPT gebruikt geen invoer van zakelijke klanten om modellen te trainen. ChatGPT heeft beveiligingsmaatregelen, maar gaat niet expliciet in op de verantwoordelijkheid voor een inbreuk op de beveiliging. Het hangt allemaal af van regionale wetten. 

Gebruik

ChatGPT-gebruikers zijn eigenaar van hun invoer- en uitvoerinhoud; de gebruikers moeten er daarom voor zorgen dat de inhoud geen wetten overtreedt. Gebruikers kunnen niet beweren dat de inhoud door mensen is gegenereerd, maar je hoeft ook niet te zeggen dat het door AI is gegenereerd. Zolang gebruikers zich houden aan regionale wetten en de Gebruiksvoorwaarden, kan ChatGPT-content worden gebruikt voor commerciële doeleinden, op sociale media, voor betaalde advertenties en andere kanalen. Het is raadzaam om feiten te controleren, referenties te maken en je aan de wetten te houden voordat je content van ChatGPT publiceert. 

Noch het Privacybeleid, noch de Voorwaarden specificeren of DeepSeek's AI-tool is getraind op auteursrechtelijk beschermd materiaal. Bovendien bieden ze ook geen garanties dat de outputs geen inbreuk maken op iemands auteursrecht. DeepSeek's Gebruiksvoorwaarden stellen dat Gebruikers behouden rechten op hun invoer (prompts), maar dit betekent niet per se dat ze auteursrechtelijk beschermd zijn. Gebruikers moeten dus maatregelen nemen om ervoor te zorgen dat de content die ze als prompts gebruiken, niet het intellectuele eigendom van iemand anders is.

In de Voorwaarden wordt ook uitdrukkelijk vermeld dat de De gebruiker is verantwoordelijk voor alle invoer en bijbehorende uitvoer, dus met dat in gedachten, moeten gebruikers deze onafhankelijk verifiëren door juridisch advies in te winnen en/of copyright-databases te gebruiken. Bijvoorbeeld, de Openbare catalogus van het Amerikaanse auteursrechtenbureau stelt gebruikers in staat om te zoeken naar geregistreerde werken in de VS, terwijl Google's omgekeerde afbeeldingzoekfunctie helpt controleren of een afbeelding eerder is gepubliceerd of auteursrechtelijk beschermd is.

Nauwkeurigheid en betrouwbaarheid

In de gebruiksvoorwaarden van DeepSeek staat dat de uitvoer door AI wordt gegenereerd en daarom fouten en/of omissies kan bevatten. verwijst specifiek naar medische, juridische en financiële kwesties waar gebruikers DeepSeek naar kunnen vragen, en hoe DeepSeek's outputs geen advies vormen. Maar breder gezien is het zegt hetzelfde over 'professionele kwesties', wat van alles kan zijn — van marketing en onderzoek tot technologie en onderwijs en nog veel meer — en dat de uitkomsten niet 'vertegenwoordigen de meningen van elke professioneel veldGebruikers moeten daarom alle uitvoer van DeepSeek onafhankelijk op nauwkeurigheid controleren.

Beveiliging en vertrouwelijkheid

In het privacybeleid van DeepSeek wordt uitgelegd dat gebruikersinvoer wordt verwerkt om uitvoer te genereren, maar ook om de service van DeepSeek verbeteren. Dit bevat 'het trainen en verbeteren van [hun] technologie'. Gebruikers moeten daarom voorzichtig zijn met het invoeren van gevoelige informatie, en hoewel DeepSeek 'commercieel redelijk' maatregelen die zijn genomen om de gegevens en informatie die als input worden gebruikt te beschermen, biedt het geen absolute garanties. De voorwaarden van DeepSeek stellen dat ze geen input of output publiceren in openbare forums, maar sommige kunnen met derden worden gedeeld.

Gebruik

Alle content die gebruikers genereren via DeepSeek kan worden gebruikt voor commerciële doeleinden, maar vanwege de grijze gebieden rond plagiaat en nauwkeurigheid, moeten gebruikers stappen ondernemen om de content te verifiëren voordat ze deze op deze manier gebruiken. De Servicevoorwaarden van DeepSeek verwijzen niet naar enige beperking met betrekking tot waar ter wereld gebruikers deze content kunnen publiceren, maar ze stellen duidelijk dat gebruikers verklaren dat het door AI gegenereerd is 'om het publiek te waarschuwen voor de synthetische aard van de inhoud'.

Canva is wettelijk niet verplicht om de bronnen van trainingsdata bekend te maken. Daarom weten we niet of auteursrechtelijk beschermd materiaal wordt gebruikt. De gebruiker is eigenaar van alle invoer- en uitvoerinhoud (niet Canva), maar Canva kan die content gebruiken om haar diensten te verbeteren. 

Nauwkeurigheid en betrouwbaarheid

Canva beren geen verantwoordelijkheid voor de nauwkeurigheid van de inhoudDe gebruiker moet altijd feiten verifiëren. 

Beveiliging en vertrouwelijkheid

Canva gebruikt invoerinhoud om zijn model te trainen. Het is de De verantwoordelijkheid van de gebruiker om te voorkomen dat vertrouwelijke of persoonlijke informatie wordt gebruikt voor invoer. Canva probeert dergelijke invoer te filteren voor modeltraining, maar er zijn geen garanties. De AI-tool van Canva is niet verantwoordelijk voor beveiligingsproblemen die door de gebruiker worden veroorzaakt.

Gebruik

Canva-gebruikers kunnen gebruiken gegenereerde inhoud voor commerciële doeleinden. Er zijn voorwaardenhoewel, net als niet publiceren misleidende inhoud. Het bedrijf heeft een lijst met verboden items, onder een sectie met de titel “Wees een goed mens.”

Net als ChatGPT, geeft DALL-E geen bronnen voor zijn modeltraining. Als u echter auteursrechtelijk beschermde content vindt, kan een claim voor verwijdering indienen. Het is moeilijk om te controleren of DALL-E inbreuk maakt op een auteursrecht, aangezien geen enkele wetgeving vereist dat DALL-E zijn gegevensbronnen bekendmaakt. Gebruikersinvoer, volgens de Voorwaarden, kan worden gebruikt om het model van DALL-E te trainen — zelfs als het auteursrechtelijk beschermde content is. De gebruiker kan zich hiervoor afmelden.  

DALL-E gebruikers eigen invoer- en uitvoerinhoud (niet DALL-E), maar dat betekent niet dat de gebruiker een copyright heeft op die content. Ook gebruikers kan niet beweren dat DALL-E-inhoud door mensen is gegenereerd.

Nauwkeurigheid en betrouwbaarheid

DALL-E beren geen verantwoordelijkheid voor onjuiste inhoud. De voorwaarden geven alle aansprakelijkheid door aan de gebruiker. Deze aansprakelijkheden omvatten de betrouwbaarheid, nauwkeurigheid, kwaliteit, veiligheid en volledigheid van de inhoud. Dus, voordat u publiceert, Gebruikers moeten altijd kruisverwijzingen maken, updates controleren, feiten verifiëren en het met experts overleggen., omdat het publiceren van valse informatie kan leiden tot reputatieschade of juridische gevolgen. 

Beveiliging en vertrouwelijkheid

Het privacybeleid en de algemene voorwaarden van DALL-E gaan nooit expliciet in op verantwoordelijkheid in het geval van een inbreuk op de beveiliging. DALL-E heeft echter wel beveiligingsmaatregelen getroffen. Wie de verantwoordelijkheid draagt ​​in het geval van een hack, hangt af van de regionale wetgeving.

DALL-E verzamelt de invoer van een gebruiker voor modeltraining, zelfs persoonlijke informatie, maar u kunt zich hiervoor afmelden. Met de API verwerkt DALL-E invoergegevens echter anders; het gebruikt geen gegevens van zakelijke gebruikers om zijn modellen te trainen

Gebruik

De gebruiker is eigenaar van DALL-E invoer- en uitvoerinhoud; ze moeten er ook voor zorgen dat de inhoud niet in strijd is met de wet of de DALL-E-voorwaarden. Je kunt niet beweren dat de inhoud van DALL-E door mensen is gegenereerd, maar je hoeft ook niet te zeggen dat het door AI is gegenereerd. 

U kunt DALL-E gebruiken voor commerciële doeleinden, zolang u zich aan alle wetten en de DALL-E-voorwaarden houdt. Regelgeving kan veranderen, maar op het moment van schrijven zijn gebruikers welkom om DALL-E-inhoud te publiceren op sociale media, in advertenties en op andere kanalen. Gebruikers moeten altijd de juiste referenties maken en de juistheid van de feiten controleren om te voorkomen dat ze wetten overtreden.

Bing is niet verplicht om zijn datatrainingsbronnen te delen, waardoor het erg moeilijk is om erachter te komen of Bing AI onbedoeld auteursrechtelijk beschermde content gebruikt. Hoewel het lastig is om te identificeren, kunnen gebruikers claims indienen over auteursrechtelijk beschermde content. De Microsoft Services Agreement zegt dat Bing AI gebruikersinvoer en -uitvoer gebruikt om zijn model te verbeteren, maar er is niets formeels om diefstal van intellectueel eigendom te voorkomen.

De In de serviceovereenkomst staat dat gebruikers Microsoft een wereldwijde en royaltyvrije licentie voor intellectueel eigendom verlenen om uw inhoud te gebruiken.Bovendien, Bing/Microsoft neemt gebruikersinvoer om AI-modellen te trainen.

Nauwkeurigheid en betrouwbaarheid

Microsoft biedt geen garanties voor de nauwkeurigheid of tijdigheid van de inhoud van zijn AI-services. Daarom moet u alles van Microsofts AI-tools factchecken, vooral als u een bedrijfseigenaar bent die reputatie- en juridische gevolgen wilt vermijden. 

Beveiliging en vertrouwelijkheid

AI-tools van Microsoft (inclusief Bing AI) persoonlijke en vertrouwelijke gebruikersgegevens gebruiken om zijn modellen te trainenDe serviceovereenkomst dekt geen door AI gegenereerde content; in plaats daarvan probeert het bedrijf alle verantwoordelijkheid voor AI-content af te schuiven op de gebruiker. Microsoft aanvaardt ook geen enkele verantwoordelijkheid voor de privacy- en beveiligingspraktijken van haar klanten. Kortom, als uw gegevens worden geschonden tijdens het gebruik van Bing AI, is dat uw probleem, niet dat van Microsoft.  

Gebruik

Microsoft claimt geen eigendom van gebruikersinhoud, maar het reguleert niet specifiek door AI gegenereerde content, waar het eigendom onzeker is. De Services Agreement staat mensen toe om content te gebruiken voor commerciële doeleinden, met enkele belangrijke bepalingen: u moet accepteren dat door AI gegenereerde content geen menselijke creativiteit heeft, dus het kan niet worden geclaimd als intellectueel eigendom; u mag ook geen inbreuk maken op de intellectuele eigendomsrechten van anderen. Kortom, u mag geen intellectueel eigendom van anderen gebruiken, maar wat u ook maakt met Bing is waarschijnlijk niet uw eigen intellectuele eigendom.

Quillbot heeft geen verplichting om bronnen te onthullen die het gebruikt om modellen te trainen. Het bedrijf probeert echter op interessante wijze één unieke situatie te reguleren: wat als de bron van modeltraining de output van de AI is? Quillbot probeert in wezen de potentie voor auteursrechtelijk beschermde output te minimaliseren, maar stelt dat er nog steeds een kans is dat output auteursrechtelijk beschermd is als gebruikers auteursrechtelijk beschermde content invoeren. Om het nog verwarrender te maken, probeert Quillbot alle gebieden te bestrijken door te zeggen dat gebruikers Quillbot een onbeperkte, sublicentieerbare licentie verlenen, terwijl ze ook beweren dat gebruikers al hun outputs bezitten. 

Nauwkeurigheid en betrouwbaarheid

Quillbot beren geen verantwoordelijkheid voor nauwkeurigheid of betrouwbaarheidGebruikers moeten zeer voorzichtig zijn en alle feiten van Quillbot controleren. 

Beveiliging en vertrouwelijkheid

Quillbot heeft maatregelen om de privacy van de gebruiker te beschermen, maar het kan nog steeds persoonlijke gegevens verwerken. Er zijn speciale beschermingen voor de privacy van kinderen. De verantwoordelijkheid voor gegevensverlies door een hack wordt per geval bekeken. Quillbot stelt dat de gebruiker maatregelen moet nemen om te voorkomen dat zijn of haar persoonlijke gegevens worden gehackt, en dat Quillbot elementen voor gegevensbescherming heeft. 

Gebruik

Quillbot-gebruikers kunnen gegenereerde content publiceren voor commerciële doeleinden, maar u moet mogelijk een aantal regels volgen, zoals het niet publiceren van schadelijke of misleidende content. Quillbot's Algemene Voorwaarden zeg niet dat je moet verklaren dat de inhoud ervan door AI is gegenereerd. Kortom, de gebruiker kan inhoud publiceren die door Quillbot is gegenereerd zolang het geen wetten of rechten schendt. 

Pixlr onthult zijn bronnen voor AI-modeltraining niet, omdat ze daartoe niet wettelijk verplicht zijn. In de voorwaarden staat dat de gebruiker eigenaar is van de content, maar gebruikers ook Pixlr een licentie verlenen om de inhoud te gebruikenDit is een poging om het gebruik van auteursrechtelijk beschermde inhoud te minimaliseren. 

Nauwkeurigheid en betrouwbaarheid

Pixlr is niet verantwoordelijk voor onjuistheden in zijn door AI gegenereerde content. Gebruikers moeten voorzichtig zijn met het factchecken van alles van Pixlr. 

Beveiliging en vertrouwelijkheid

Pixlr neemt gebruikersinvoer voor AI-modeltraining. Het geeft de last aan de gebruiker om voorzichtig te zijn met het invoeren persoonlijke of vertrouwelijke informatie. Pixlr ziet af van zijn verantwoordelijkheid om bepaalde informatie uit zijn trainingsgegevens te filteren, hoewel het wel enkele filters gebruikt om persoonlijke of vertrouwelijke informatie te blokkeren. Pixlr beweert geen aansprakelijkheid voor beveiligingsproblemen veroorzaakt door de acties van gebruikers

Gebruik

Gebruikers mogen door AI gegenereerde content die via Pixlr is gemaakt, publiceren voor commerciële doeleinden (hoewel er wel enkele voorwaarden gelden). De voorwaarden vereisen niet dat je iets AI-gegenereerd vermeldt. Gebruikers zijn echter nog steeds aansprakelijk voor het schenden van rechten of wetten. 

halverwege de reis Gebruikers verlenen het bedrijf rechten op alle activa die via het bedrijf worden gemaakt, maar de gebruiker is ook eigenaar van alle activaEr zijn uitzonderingen, zoals dat je geen eigendom kunt claimen als je zojuist een afbeelding van een originele maker opgeschaald.

Nauwkeurigheid en betrouwbaarheid

Midjourney draagt ​​geen verantwoordelijkheid voor de betrouwbaarheid en nauwkeurigheid van de inhoud ervan. Gebruikers moeten daarom extra voorzichtig zijn om feiten te verifiëren en de betrouwbaarheid te controleren. 

Beveiliging en vertrouwelijkheid

Midjourney traint zijn model met gebruikersinvoer, zelfs als het persoonlijke of vertrouwelijke gegevens. Midjourney beweert dat de gebruiker voorzichtig moet zijn met gevoelige gegevens, dus het is niet hun probleem. Het bedrijf probeert bepaalde informatie te filteren voor modeltraining, maar dat is niet vereist. Midjourney claimt geen verantwoordelijkheid voor beveiligingsproblemen die kunnen ontstaan ​​door de acties van een gebruiker. 

Gebruik

Midjourney-gebruikers kunnen gegenereerde content publiceren voor commerciële doeleinden. Sommige voorwaarden, zoals de vereiste om te abonneren op de Pro-versie als het bedrijf meer dan $ 1 miljoen per jaar verdient, toepassen. Op het moment van schrijven hoeven gebruikers niet te beweren dat iets door AI is gegenereerd vanuit Midjourney, ook al is er wetgeving in beweging om dit te veranderen. Gebruikers kunnen over het algemeen alle Modjourney-inhoud gebruiken als deze geen rechten of wetten schendt. 

Clipchamp is een Microsoft-product, dus het claimt geen verplichting om gegevensbronnen te delen voor modeltraining. Daarom is het moeilijk te zeggen of de AI-tool onbedoeld auteursrechtelijk beschermde gegevens gebruikt. Iemand moet de inbreuk op het auteursrecht identificeren om een ​​claim in te dienen, wat onwaarschijnlijk is. De Microsoft Services Agreement zegt het kan gebruikersinvoer en -uitvoer gebruiken om diensten te verbeteren, en Microsoft reguleert geen zaken omtrent intellectueel eigendom. Ook, Gebruikers verlenen Microsoft een wereldwijde, royaltyvrije licentie voor intellectueel eigendom

Nauwkeurigheid en betrouwbaarheid

Clipchamp en Microsoft garandeert niets met betrekking tot de nauwkeurigheid of tijdigheid van zijn AI-tools, dus gebruikers moeten alle feiten verifiëren voor publicatie. Dit geldt met name voor bedrijfseigenaren die te maken kunnen krijgen met juridische en reputatieschade. 

Beveiliging en vertrouwelijkheid

Clipchamp en Microsoft persoonlijke en vertrouwelijke gegevens gebruiken voor modeltrainingMicrosoft probeert de verantwoordelijkheid voor alle inhoudelijke problemen bij de gebruiker te leggen. Hetzelfde geldt voor hacking en inbreuken op de beveiliging; het is de verantwoordelijkheid van de gebruiker als er iets gebeurt. 

Gebruik

Clipchamp en Microsoft houden zich afzijdig van het reguleren van door AI gegenereerde content, nooit beweren dat Microsoft eigenaar is van de inhoudTechnisch gezien zegt Microsoft dat de gebruiker het bezit, maar zonder de intellectuele eigendomsrechten. De gebruiker kan Clipchamp-inhoud publiceren voor commerciële doeleinden met twee bepalingen: u mag geen inbreuk maken op intellectuele eigendomsrechten, of beweren dat u intellectuele eigendomsrechten hebt voor gegenereerde inhoud. 

De Looka Algemene Voorwaarden staat dat het bedrijf geen verplichtingen heeft om trainingsbronnen voor gegevens te delen, dus dat doen ze niet. Gebruikers dragen alle risico's bij het gebruik van door Looka gegenereerde content. 

Nauwkeurigheid en betrouwbaarheid

Looka aanvaardt geen enkele verantwoordelijkheid voor de nauwkeurigheid en betrouwbaarheid van de output van haar AI-tools. Gebruikers moeten alle feiten verifiëren en controleer op betrouwbaarheid. 

Beveiliging en vertrouwelijkheid

Looka gebruikt invoergegevens — zelfs potentieel persoonlijke en vertrouwelijke gegevens — om zijn model te trainen, De gebruiker is er dus zelf verantwoordelijk voor dat hij dit soort gegevens niet in zijn invoer gebruikt. Looka probeert dergelijke gegevens te filteren, maar ze beweren dat ze dat niet hoeven te doen. Bovendien zijn alle beveiligingsproblemen de last van de gebruiker. 

Gebruik

Looka-gebruikers mogen door AI gegenereerde content gebruiken voor commerciële doeleinden, maar ze moeten zich mogelijk aan bepaalde voorwaarden houden of een vergoeding betalen. Gebruikers hoeven hun gegenereerde content niet te labelen als AI-gegenereerd. Gebruikers moeten voorkomen dat ze gegenereerde content publiceren die rechten of wetten schendt. 

Het is niet mogelijk om te zeggen of Speechify traint zijn model op auteursrechtelijk beschermd materiaal. We weten het gewoon niet. Speechify's Terms raden aan om geen auteursrechtelijk beschermd materiaal te gebruiken voor inputs, wat suggereert dat sommige outputs mogelijk auteursrechtelijk beschermde data bevatten. Speechify beweert hiervoor geen verantwoordelijkheid te dragen

Nauwkeurigheid en betrouwbaarheid

Speechify, volgens zijn Algemene Voorwaarden, neemt geen verantwoordelijkheid voor de nauwkeurigheid van de outputs. Gebruikers dienen altijd te controleren op tijdigheid, betrouwbaarheid en nauwkeurigheid met Speechify. 

Beveiliging en vertrouwelijkheid

Spraakmaken draagt ​​alle verantwoordelijkheid over aan de gebruiker als het gaat om het invoeren van gevoelige of persoonlijke gegevens. De tool gebruikt wel inputs om modellen te trainen, dus gebruikers moeten voorzichtig zijn. Speechify hoeft niet per se gevoelige of persoonlijke data te filteren, maar het probeert dat wel met een aantal filters. Alle verantwoordelijkheden voor beveiligingsproblemen worden doorgegeven aan de gebruiker. 

Gebruik

Speechify-gebruikers kunnen gebruiken outputs voor commerciële doeleinden, met enkele voorwaarden zoals het moeten abonneren of verkrijgen van een licentie. Gebruikers hoeft niet te verklaren dat Speechify-inhoud door AI is gegenereerdSpeechify-gebruikers mogen echter nooit rechten of wetten schenden bij het publiceren van Speechify-uitvoer. 

De Kapwing De voorwaarden leggen alle verantwoordelijkheden voor intellectueel eigendom en nauwkeurigheid bij de gebruikerAlle gebruikers verlenen Kapwing een niet-exclusieve licentie, maar de gebruikers behouden het eigendom van de inhoudKapwing geeft niet aan of het invoergegevens gebruikt voor modeltraining. 

Nauwkeurigheid en betrouwbaarheid

Kapwing legt alle nauwkeurigheidsverantwoordelijkheden bij de gebruiker, met name de juridische en reputatiegevolgen.

Beveiliging en vertrouwelijkheid

Kapwing-gebruikers nemen alle risico's wanneer ze ervoor kiezen om vertrouwelijke informatie in hun AI-tool in te voeren. Het biedt ook geen garantie of verantwoordelijkheid over de veiligheid van de service.

Gebruik

Je kunt Kapwing-content commercieel publiceren, maar Kapwing adviseert gebruikers om voorzichtig te zijn. In hun voorwaarden staat niet of gebruikers moeten aangeven dat de output van Kapwing door AI is gegenereerd.

Otter.ai stelt dat het geen materiaal toestaat dat inbreuk maakt op het auteursrecht, maar het is lastig om deze bewering te verifiëren. Gebruikers behouden het eigendom en de auteursrechten van de invoer en berichten in Otter.ai, maar Otter.ai zegt gebruikers zijn verantwoordelijk voor geen eerder auteursrechtelijk beschermde inhoud invoeren. Otter.ai kan ook invoer gebruiken voor machinaal leren.

Nauwkeurigheid en betrouwbaarheid

Otter.ai sluit zichzelf uit van verantwoordelijkheid met betrekking tot nauwkeurigheid en betrouwbaarheid, dus gebruikers moeten altijd de inhoud verifiëren. Het gebruiken van feitelijk misleidende of onjuiste informatie kan juridische of reputatieproblemen voor de gebruiker veroorzaken. 

Beveiliging en vertrouwelijkheid

Alle risico's op het blootstellen van vertrouwelijke informatie op Otter.ai behoort toe aan de gebruiker. 

Gebruik

Gebruikers kunnen met commerciële bedoelingen publiceren omdat de gebruikers de eigenaren van de inhoud zijn van Otter.ai. Dat gezegd hebbende, AI-gegenereerde content heeft geen duidelijke eigendomsregels. Otter.ai stelt ook de getranscribeerde aantekeningen kunnen worden doorzocht en gedeeld.

PhotoRoom kan gebruikersinvoer en -uitvoer gebruiken voor modeltraining, maar er is beperkte informatie over of de service dat wel of niet doet. De PhotoRoom-voorwaarden herinneren gebruikers eraan om geen auteursrechtelijk beschermde content in te voeren. Gebruikers dragen alle verantwoordelijkheid voor deze. 

Nauwkeurigheid en betrouwbaarheid

Fotokamer draagt ​​geen verantwoordelijkheid voor de nauwkeurigheid of betrouwbaarheid van de door AI gegenereerde inhoudGebruikers moeten hun eigen controles uitvoeren om dit te verifiëren.

Beveiliging en vertrouwelijkheid

PhotoRoom gebruikt invoer om zijn modellen te trainen. Gebruikers zijn verantwoordelijk bij het invoegen van vertrouwelijke informatie. or persoonlijke informatie. De service probeert dit soort invoer te filteren, maar beweert dat er geen noodzaak is om dit te doen. Gebruikers dragen alle verantwoordelijkheid voor beveiligingsproblemen. 

Gebruik

PhotoRoom-inhoud kan voor commerciële doeleinden worden gebruikt, maar er kunnen voorwaarden gelden, zoals het aanmelden voor een abonnement. De voorwaarden stellen dat u content niet hoeft te markeren als door AI gegenereerd. Gebruikers kunnen andere gevolgen ondervinden als ze rechten of wetten schenden. 

Disclaimer

Deze informatie is alleen bedoeld voor algemene informatiedoeleinden en mag niet worden opgevat als juridisch advies. Ecommerce Platforms aanvaardt geen verantwoordelijkheid voor fouten of omissies. Raadpleeg een geschikte juridische professional voor advies en begeleiding op maat voor uw specifieke behoeften en omstandigheden.

Conclusie

De alomtegenwoordigheid van AI maakt het steeds waarschijnlijker dat we allemaal tools en apps gebruiken die op deze technologie zijn gebaseerd. Toch hebben velen van ons niet de luxe om de benodigde tijd te nemen om de algemene voorwaarden ervan te lezen. 

In 2017 is het netwerk voor professionele diensten Deloitte gevonden dat 91% van de consumenten “vrijwillig juridische voorwaarden accepteren zonder ze te lezen” — oplopend tot 97% tussen de leeftijd van 18 en 34 jaar.

Gezien het aantal AI-voorwaarden dat we hebben beoordeeld met lage leesbaarheidsscores, lijkt het erop dat De ondoorgrondelijkheid van de juridische taal in deze documenten weerhoudt gebruikers ervan om zelfs maar te proberen ze te begrijpen. 

We hebben een jurist ingeschakeld om de documenten voor ons te analyseren, maar het is de vraag of dit nodig is.

Wij hopen dat dit onderzoek, inclusief de leesbaarheidsbeoordelingen en de expertise van Josilda Ndreaj over de algemene voorwaarden waar u op moet letten, u zal helpen bij het maken van keuzes over welke AI-apps en -tools u wilt gebruiken. 

Methodologie en bronnen

Hoe we het onderzoek hebben uitgevoerd

We begonnen met een seedlist van ongeveer 90 AI-tools en apps en verzamelden eerst de juridische documentatie van elke tool, van algemene voorwaarden tot privacybeleid. Vervolgens registreerden we de woordlengtes van deze documenten en berekenden we hun leesbaarheidsscore met behulp van het beoordelingssysteem van Flesch-Kincaid. Vervolgens schakelden we de hulp in van een juridisch expert, Josilda Ndreaj (LLM), die een selectie van deze juridische documenten beoordeelde en belangrijke punten identificeerde waar gebruikers op moeten letten.

Voor ongeveer 30 van de AI-tools met mobiele app-versies hebben we elk op de Apple App Store gezocht en hun privacylabels vastgelegd die op hun vermeldingen worden weergegeven. Deze zijn onderverdeeld in 14 categorieën van gegevens die van gebruikers kunnen worden verzameld en met welk doel. Om te berekenen welke AI-apps de meeste gegevens verzamelden, hebben we gemeten hoeveel van de 14 mogelijke categorieën deze apps hun gebruikers volgden. 

Het is belangrijk om op te merken dat deze 14 categorieën verder zijn onderverdeeld in individuele datapunten. Bijvoorbeeld, 'Contactgegevens' bevat vijf datapunten, namelijk: 'Naam', 'E-mailadres', 'Telefoonnummer', 'Fysiek adres' en 'Contactgegevens andere gebruiker'. Om erachter te komen welke apps de meeste individuele datapunten verzamelen, bekijkt u de laatste kolom in elk van de tabellen.

Sommige apps verzamelen meer individuele datapunten dan die welke hoger in de rangschikking staan. Dit komt doordat onze rangschikkingsmethodologie bekijkt welke apps data verzamelen in de meeste categorieën in het algemeen, wat duidt op een breder en daarom 'completer' beeld van gebruikersdata, in plaats van de diepte van de informatie die ze verzamelen in elke categorie. 

bronnen

Correctieverzoeken

Wij werken dit onderzoek regelmatig bij.

Als u de eigenaar bent van een van de AI-tools die in dit onderzoek zijn opgenomen en u wilt de informatie op deze pagina betwisten, zijn we bereid deze te updaten, afhankelijk van onze beoordeling van het bewijs dat u levert. Wanneer u hierover contact met ons opneemt, vragen we u vriendelijk om: 

  • zakelijke documenten die uw legitimiteit aantonen (bijvoorbeeld een oprichtingsakte of registratiedocumenten) 
  • de informatie op deze pagina waarvan u denkt dat deze verouderd is (wees specifiek)
  • hoe het moet worden bijgewerkt en waarom, met links naar documentatie die dit ondersteunt (bijvoorbeeld wijzigingen in de Servicevoorwaarden)

Neem alsjeblieft contact met ons op [e-mail beveiligd] met als onderwerp: 'Correctieverzoek: onderzoek naar AI-tools', plus de naam van de AI-tool waarover u contact met ons opneemt.

Bogdan Rancea

Bogdan Rancea is medeoprichter van Ecommerce-Platforms.com en hoofdconservator van ecomm.design, een showcase van de beste e-commercewebsites. Met meer dan 12 jaar ervaring in de digitale handelssector heeft hij een schat aan kennis en een scherp oog voor geweldige online retailervaringen. Als e-commerce tech explorer test en beoordeelt Bogdan verschillende platforms en designtools zoals Shopify, Figma en Canva en biedt praktisch advies voor winkeleigenaren en ontwerpers.