Artificiell intelligens har snabbt blivit en del av den samtida tidsandan - men etiska överväganden kring ämnet förblir olösta. Hur många användare är fullt medvetna om vad de registrerar sig för?
Här, genom att finslipa villkoren och integritetspolicyn bakom de mest populära AI-verktygen och apparna, packar Ecommerce Platforms upp det du behöver veta när du använder dessa verktyg för dina dagliga affärsbehov.
Vi har analyserat data och personlig information som dessa verktyg samlar in (och i vilket syfte) för att hjälpa dig att avgöra vilken AI-verktyg, programvara och plattformar är de mest lämpliga för din avsedda användning. Vi rådfrågade också en juridisk expert för att bryta ner jargongen bakom dessa verktygs villkor.
När du använder en AI-app samtycker du till att (åtminstone en del av) dina data samlas in av den
Vi analyserade Apple App Stores sekretessetiketter för cirka 30 tillgängliga mobilappversioner av populära AI-verktyg för att förstå vilka som samlar in din data och varför.
Den data som samlas in från användare (och dess syfte) är indelad i 14 kategorier, vilket gör det möjligt att fastställa vilka appar som samlar in och spårar mest användardata.
För ytterligare information, ta en titt på metodavsnittet i slutet av denna sida.
Vilken data samlar dessa AI-appar in?
AI-verktygen som bedöms i denna forskning samlar in data av olika slag. Vissa av dessa fokuserar på personliga uppgifter om användare — från skärmnamn och bankuppgifter, till deras hälsa och kondition, och till och med känslig information som ras/etnicitet, sexuell läggning, könsidentitet och politiska åsikter.
Andra relaterar till innehåll som skapats av användare (som e-post och meddelanden, foton, videor och ljudinspelningar), eller hur användare interagerar med själva produkten, som deras sökhistorik i appen eller vilka annonser de har sett. Mer opersonlig är fortfarande den diagnostiska informationen som samlas in för att visa kraschdata eller energianvändning.
Varför samlar dessa AI-appar in data?
Det finns olika anledningar till att appar samlar in data,varav vissa kan ses som mer motiverade än andra — Till exempel kan biometri eller kontaktinformation användas för att autentisera användarens identitet.
På samma sätt kan åtkomst till viss data krävas för att en app ska fungera korrekt, inklusive för att förhindra bedrägeri eller förbättra skalbarhet och prestanda.
Mer specifikt behöver meddelandeappar åtkomst till kontakter, telefonkameror och mikrofoner för att tillåta samtal, medan geolokalisering är nödvändig för taxi- eller leveransappar.
Antagligen mindre väsentliga skäl att samla in data inkluderar reklam eller marknadsföring av appens utvecklare (till exempel för att skicka marknadskommunikation till dina användare); möjliggöra tredjepartsannonsering (genom att spåra data från andra appar för att rikta riktade annonser till användaren, till exempel); och analysera användarbeteende för syften inklusive att bedöma effektiviteten av befintliga funktioner eller planera nya.
Hej mobilanvändare 👋 Tabellerna nedan kan vara rullade horisontellt för att se all data, men den här sidan ser definitivt bättre ut Desktop.
AI-appar som samlar in din data för att dela med tredjepartsannonsörer
Kolumnrubriker med knappar är sorterbara.
AI-app
% data delas med andra
Webbhistorik
Kontaktinformation
Identifierare
Plats
Övriga data
Inköp
Sökhistorik
Användningsdata
Antal insamlade datapunkter
canva
36%
2
2
1
1
2
8
Duolingo
36%
2
1
1
1
2
7
Google Assistant
21%
1
1
1
3
bing
14%
1
1
2
Pixai
14%
1
1
2
wombo
14%
1
1
2
ChatGPT
7%
1
1
Genie AI
7%
1
1
Lins
7%
1
1
Tala
7%
1
1
starryai
7%
1
1
Av alla AI-appar som ingår i vår forskning, Canva, ett grafiskt designverktyg, samlar in mest data från sina användare för tredjepartsreklamändamål — cirka 36 %. Däremot samlar de fem appar som samlar in minst data för detta ändamål drygt 7 %.
Den data som Canvas app samlar in från dig och delar med tredje part inkluderar din sökhistorik, plats, e-postadress och annan information som visas i tabellen ovan.
Den spelifierade språkinlärningsappen följer Canva nära Duolingo (~36%), Google Assistant (~21%) och Microsofts Bing (~14%) — allt detta även dela dina uppgifter med tredje part.
Av de fem appar som samlar in minst data, endast starryai (en bildgenerator) begränsar sig till att endast dela användningsdata.
AI-appar som samlar in din data för sin egen fördel
Kolumnrubriker med knappar är sorterbara.
Applikation
% data som samlats in för appens egen fördel
Webbhistorik
Kontaktinformation
Identifierare
Plats
Inköp
Sökhistorik
Användningsdata
Antal insamlade datapunkter
canva
43%
2
2
1
1
1
2
9
Facetune
36%
2
4
2
2
4
14
Amazon Alexa
36%
4
2
1
1
2
10
Google Assistant
36%
1
2
2
1
2
8
Fotorum
29%
1
1
1
1
4
Duolingo
21%
2
1
1
4
starryai
14%
2
1
3
bing
14%
1
1
2
Lins
14%
1
1
2
Utter
7%
2
2
Äta
7%
1
1
Poe
7%
1
1
Pixai
7%
1
1
Tala
7%
1
1
wombo
7%
1
1
Canva toppar också diagrammet för AI-appar som samlar in användardata för sina egna reklam- eller marknadsföringsändamål. För att göra det samlar Canva in cirka 43 % av användarnas data.
På tredje plats, Amazon Alexa samlar in 36 % av dina uppgifter för samma ändamål. Detta inkluderar din e-postadress, fysiska adress, telefonnummer, sökhistorik och köphistorik, plus fem andra datapunkter. Google Assistant samlar in och delar samma procentandel av data av denna anledning, dock över åtta individuella datapunkter, jämfört med de tio som Amazon Alexa samlar in.
Smakämnen text-till-tal röstgenerator, Speechify, är bland de appar som samlar in minst data. Enligt Apple App Store-listans sekretessetiketter samlar Speechify in bara en datapunkt för sin egen fördel; ditt enhets-ID.
AI-appar som samlar in din data för alla ändamål
Kolumnrubriker med knappar är sorterbara.
Applikation
% data insamlad
Webbhistorik
Kontaktinformation
Kontakt
Diagnostik
Ekonomisk information
Health & Fitness
Identifierare
Plats
Övriga data
Inköp
Sökhistorik
Känslig info
Användningsdata
Användarinnehåll
Antal insamlade datapunkter
Amazon Alexa
93%
24
4
9
3
4
10
8
4
5
5
4
13
23
116
Google Assistant
86%
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79%
10
1
7
1
12
4
4
6
1
7
7
60
canva
64%
11
3
1
8
5
4
5
10
6
53
Utter
57%
7
3
5
7
2
3
2
11
40
Poe
57%
2
2
3
6
2
3
2
5
25
Facetune
50%
6
8
18
8
8
14
2
64
bing
50%
1
2
6
3
3
2
3
20
DeepSeek
50%
2
3
4
1
1
2
3
16
MINNE
43%
6
4
6
6
6
4
32
ELSA talar
43%
2
6
6
3
3
3
23
Fotorum
43%
2
1
9
3
4
1
20
Trint
43%
1
2
1
4
1
2
11
ChatGPT
36%
4
8
5
7
2
26
AI:s förvirring
36%
6
6
2
1
6
21
1 / 2
Alla AI-modeller kräver någon form av träning genom maskininlärning - vilket betyder det de behöver data.
Om vi vill att AI-verktyg ska förbättras och bli mer användbara, kan vår integritet ses som en nödvändig avvägning mot att tillhandahålla dessa uppgifter.
Men frågan om var gränsen mellan nytta och exploatering bör dras, och varför, är en taggig en.
Med tanke på dess nuvarande ryktbarhet är det värt att ta upp DeepSeek. Dess lista på Apple App Store anger att DeepSeek inte samlar in användardata för sin egen fördel (till exempel DeepSeeks egen marknadsföring och reklam) eller för att dela med tredje part.
Smakämnen DeepSeek-appen samlar själv in 50 % av sina användares data, som tjänar DeepSeeks Analytics- och appfunktionalitet. Som jämförelse ChatGPT-appen samlar in 36 %.
Vissa medier rapporterar oro över säkerhetsrisker relaterade till DeepSeeks kinesiska ursprung (både när det gäller datainsamling och eventuell spridning av felaktig information) och underskridandet av amerikanska rivaler. Båda är osannolikt att lindras av DeepSeeks villkor och sekretesspolicy, som skulle ta runt 35 minuter att läsa, och är klassade som "mycket svårt" på Flesch-Kincaid läsbarhetsskalan.
Oavsett hur din data används, Amazon Alexa samlar in mer av sina användares data än någon annan AI-app ingår i denna forskning. Sammantaget samlar det 93% av din data (eller 116 individuella mätvärden, främst kontaktinformation, användarinnehåll och användningsdata).
Google Assistant kommer härnäst, samlar 86%, Följt av Duolingo, som samlar in 79%.
I den andra änden av skalan, AI-bildgenerator, Stable Diffusion, samlar inte in några data. Det är enligt sekretessetiketter på Apple App Store-listan.
Även om det är sant att alla generativ AI modeller kräver enorma mängder data för att tränas, denna utbildning sker innan utvecklingen av specifika appar. I de flesta fall äger appskapare inte AI-modellerna de använder; insamling av användardata relaterar därför till själva appens funktionalitet. Detta kan förklara varför vissa av apparna vi har undersökt inte har någon information i tabellen ovan.
Navigera i villkoren bakom AI-verktyg
Låt oss nu titta på juridisk dokumentation bakom olika AI-verktyg för att ta reda på det hur lätta eller svåra de är att läsa. Detta är baserat på Flesch-Kincaid läsnivåtest.
Detta system likställer texter med amerikanska skolläsnivåer (från femte till 12:e klass), sedan College, College Graduate och Professional. Texter i sjätte klass definieras som "konversationsengelska för konsumenter", medan professionella texter beskrivs som "extremt svåra att läsa".
Ju lägre läsbarhetspoäng desto svårare är texten att läsa.
Talande nog är "att få tillräckligt med sömn" - avgörande för fysisk och mental hälsa och kognitiv funktion - på tredje plats, efter "jobba långa timmar" och "sortera ut skattedeklarationer".
En tredjedel av de tillfrågade ansåg att det inte var möjligt att sköta hela sin admin under arbetstid, och sa de behövde fyra extra timmar om dagen för att ta sig igenom det hela.
Detta ger en känsla av hur straffande det kan vara att driva ett SME, och att tid som behövs för att läsa villkoren bakom verktygen de litar på ligger inte lätt att komma förbi.
I detta sammanhang är de 40 minuter långa lästiderna för T&C:erna för att transkribera verktyg som Otter, Trint och Descript, mycket betydelsefulla.
Och det är förutsatt att det är möjligt att förstå de mest svårlästa villkoren. Det är därför vi sökte expertis hos en juridisk expert.
Vi bad en juridisk expert inom AI och teknik att läsa dem och förklara nyckelpunkter du behöver veta
Josilda Ndreaj, en jurist och licensierad advokat, har navigerat i komplexa juridiska frågor på uppdrag av Fortune 500-kunder och tillhandahållit råd åt olika företag.
På senare tid har hon som oberoende konsult inriktad på immaterialrätt i skärningspunkten mellan blockchain-teknik och artificiell intelligens.
Josilda Ndreaj (LLM) är en jurist och licensierad advokat med expertis inom immateriella rättigheter (IP).
Hennes karriär som juridisk konsult började på en prestigefylld internationell advokatbyrå som vänder sig till Fortune 500-kunder. Här navigerade Josilda i komplexa juridiska frågor och gav råd till olika företag.
Driven av intressen för innovation, kreativitet och framväxande teknologier, gav sig Josilda sedan in på oberoende konsulttjänster och fokuserade på immaterialrätt, genom att täcka skärningspunkten med blockchain-teknik och artificiell intelligens.
Josilda har två civilingenjörsexamina; en specialiserad på civil- och handelsrätt från Tirana University, och den andra med inriktning på immaterialrätt, från Zhongnan University of Economics and Law.
Som sådan var Josilda unikt positionerad för att granska ett urval av dessa AI-verktygs juridiska dokument, och drar fram nyckelpunkter till förmån för de av oss som inte har två Master of Laws examina.
Hennes sammanfattningar beskrivs nedan:
Plagiat och upphovsrättsintrång
Gemini (tidigare Bard) har ingen skyldighet att deklarera utbildningskällor, så vi kan inte kontrollera om den är utbildad på upphovsrättsskyddat material. Tvillingarna är inte undantagna från ansvar för sådana intrång; om en upphovsrättsinnehavare begär åtal, bär Gemini ett visst ansvar. Men det är viktigt att notera att Gemini är utbildad i vad användaren ger den. För detta, Gemini kräver en licens från användaren. Om användaren samtycker till att ge den licensen till Gemini, men de (användaren) faktiskt inte äger upphovsrätten, övergår ansvaret till användaren.
Användare behåller äganderätten till sina input och uppmaningar, men produktionsägande är mer komplext. Gemini gör inte detta tydligt i sina Villkor. Många lagar erkänner inte immateriella rättigheter för maskiner. Det är dock tveksamt att hävda att resultatet är "mänskligt genererat", även om användaren äger indata.
Företagsägare bör aldrig publicera en utdata från Gemini utan att korsreferens, granska för uppdateringar och kontrollera med experter för noggrannhet. Annars riskerar de att publicera vilseledande information, vilket kan få anseende eller juridiska konsekvenser.
Säkerhet och sekretess
Google (ägaren till Gemini) tillhandahåller ingen information i sin sekretesspolicy om hur den hanterar konfidentiell data.
Användning
Google anger ingenting i sina användarvillkor om huruvida innehåll som genereras av Gemini kan användas för kommersiella ändamål. Det förklarar begränsningar för saker som immateriella rättigheter men inget specifikt för AI-genererat innehåll.
Plagiat och upphovsrättsintrång
För närvarande kräver ingen lagstiftning att ChatGPT offentligt deklarerar vad dess modell är utbildad på. Så eftersom det inte avslöjar sina källor kan vi inte veta om ChatGPT levererar eller bearbetar innehåll som är skyddat av upphovsrättslagar. Om någon identifierar upphovsrättsskyddat innehåll från ChatGPT, de kan göra anspråk för att ta bort innehållet.
Användare bör verifiera all information från ChatGPT. Det är för att ChatGPT tar inget ansvar för att tillhandahålla korrekt, uppdaterat innehåll. Enligt dess avsnitt om ansvarsfriskrivning, användaren tar på sig alla risker för noggrannhet, kvalitet, tillförlitlighet, säkerhet och fullständighet. Verifiera därför alltid fakta från ChatGPT; korsreferenser, granska för uppdateringar och kontrollera med experter för noggrannhet också. Företagsägare kan möta juridiska eller anseende konsekvenser om de inte verifierar ChatGPT-innehåll för korrekthet innan publicering.
Säkerhet och sekretess
ChatGPT samlar in information från indata – inklusive personlig information – för att eventuellt träna sina modeller (enligt integritetspolicyn). Användaren kan välja bort. Situationen förändras om data skickas via API-anslutningar (ChatGPT Enterprise, Team, etc); det är för att ChatGPT använder inte input från företagskunder att utbilda modeller. ChatGPT har säkerhetsåtgärder på plats, men tar inte uttryckligen upp ansvaret för ett säkerhetsintrång. Allt beror på regionala lagar.
Användning
ChatGPT-användare äger sitt in- och utmatningsinnehåll; användarna måste därför se till att innehållet inte bryter mot några lagar. Användare kan inte hävda att innehållet är mänskligt genererat, men du behöver inte heller säga att det är AI-genererat. Så länge som användare följer regionala lagar och användarvillkoren kan ChatGPT-innehåll användas för kommersiella ändamål, på sociala medier, för betald reklam och andra kanaler. Det rekommenderas att du kollar fakta, gör referenser och följer lagar innan du publicerar innehåll från ChatGPT.
Plagiat och upphovsrättsintrång
Varken sekretesspolicyn eller villkoren anger om DeepSeeks AI-verktyg har tränats på upphovsrättsskyddat material. Dessutom ger de inga garantier för att utdata inte kommer att göra intrång i någons upphovsrätt. DeepSeeks användarvillkor anger att användare behåller rättigheterna till sina indata (uppmaningar), men detta betyder inte nödvändigtvis att de är upphovsrättsskyddade i första hand, så användare bör vidta åtgärder för att säkerställa att det de använder som uppmaningar inte är någon annans immateriella rättigheter.
DeepSeeks sekretesspolicy förklarar att användarinmatningar bearbetas för att generera utdata, men också för att förbättra DeepSeeks tjänst. Detta inkluderar ”utbilda och förbättra [sin] teknik”. Användare bör därför vara försiktiga med att mata in känslig information, och även om DeepSeek har 'kommersiellt rimliga"åtgärder för att skydda data och information som används som indata, ger det inga absoluta garantier. DeepSeeks villkor säger att de inte publicerar input eller utdata i offentliga forum, men vissa kan delas med tredje part.
Användning
Allt innehåll som användare genererar genom DeepSeek kan användas för kommersiella ändamål, men på grund av gråzoner kring plagiat och noggrannhet bör användare vidta åtgärder för att verifiera innehållet innan de använder det på detta sätt. DeepSeeks användarvillkor hänvisar inte till någon begränsning av var i världen användare kan publicera detta innehåll, men de anger tydligt att användare måste förklara det som AI-genererat "för att uppmärksamma allmänheten på innehållets syntetiska natur".
Plagiat och upphovsrättsintrång
Canva är inte juridiskt skyldigt att avslöja sina källor för träningsdata. Därför vet vi inte om upphovsrättsskyddat material används. Användaren äger allt in- och utmatningsinnehåll (inte Canva), men Canva kan använda det innehållet för att förbättra sina tjänster.
I likhet med ChatGPT, deklarerar DALL-E inte källor för sin modellträning. Om du däremot hittar upphovsrättsskyddat innehåll, kan du kan lämna in en begäran om avlägsnande. Det är svårt att kontrollera om DALL-E gör intrång i en upphovsrätt eftersom ingen lagstiftning kräver att DALL-E avslöjar sina datakällor. Användarinmatning, enligt villkoren, kan användas för att träna DALL-E:s modell – även om det är upphovsrättsskyddat innehåll. Användaren kan välja bort detta.
Integritetspolicyn och villkoren från DALL-E tar aldrig uttryckligen upp ansvar i händelse av ett säkerhetsintrång. DALL-E har dock säkerhetsåtgärder på plats. Vem som bär ansvaret vid ett hack beror på regionala lagar.
Du kan använda DALL-E för kommersiella ändamål, så länge du följer alla lagar och DALL-E-villkoren. Reglerna kan komma att ändras, men i skrivande stund är användare välkomna att publicera DALL-E-innehåll på sociala medier, i annonser och på andra kanaler. Användare bör alltid göra korrekta referenser och faktakontroller för att undvika att bryta mot lagar.
Plagiat och upphovsrättsintrång
Bing har ingen skyldighet att dela sina dataträningskällor, vilket gör det mycket svårt att ta reda på om Bing AI oavsiktligt använder upphovsrättsskyddat innehåll. Även om det är svårt att identifiera, kan användare göra anspråk på upphovsrättsskyddat innehåll. Microsofts tjänsteavtal säger att Bing AI tar användarinput och -utgångar för att förbättra sin modell, men det finns inget formellt på plats för att förhindra stöld av immateriell egendom.
Microsoft gör inte anspråk på äganderätt till användarinnehåll, men det reglerar inte specifikt AI-genererat innehåll, där äganderätten är osäker. Tjänsteavtalet låter människor använda innehåll för kommersiella ändamål, med några betydande villkor: du måste acceptera att AI-genererat innehåll saknar mänsklig kreativitet, så det kan inte hävdas som immateriell egendom; du får inte heller göra intrång i andras immateriella rättigheter. Kort sagt, du kan inte använda andras immateriella rättigheter, men vad du än gör med Bing är förmodligen inte din egen immateriella egendom.
Plagiat och upphovsrättsintrång
Quillbot har ingen skyldighet att avslöja källor som den använder för att träna modeller. Emellertid försöker företaget intressant nog att reglera en unik situation: vad händer om källan till modellträning är AI:s produktion? Quillbot försöker i huvudsak minimera risken för upphovsrättsskyddad produktion, men säger att det fortfarande finns en chans att utdata är upphovsrättsskyddat om användare matar in upphovsrättsskyddat innehåll. För att göra saker mer förvirrande, försöker Quillbot täcka alla områden genom att säga att användarna ger Quillbot en obegränsad, underlicenserbar licens samtidigt som användarna hävdar att användarna äger alla deras utdata.
Quillbot har åtgärder för att skydda användarnas integritet, men det kan ändå sluta med att personuppgifter behandlas. Det finns särskilda skydd för barns integritet. Ansvaret för dataförlust från ett hack hanteras från fall till fall. Quillbot säger att användaren bör vidta åtgärder för att förhindra att deras personuppgifter hackas, och att Quillbot har dataskyddselement på plats.
Användning
Quillbot-användare kan publicera genererat innehåll för kommersiella ändamål, men du kan behöva följa vissa regler, som att inte publicera skadligt eller vilseledande innehåll. Quillbots Villkor säg inte att du behöver deklarera att dess innehåll är AI-genererat. Kort sagt användare kan publicera innehåll genererat av Quillbot så länge det inte bryter mot några lagar eller rättigheter.
Plagiat och upphovsrättsintrång
Pixlr avslöjar inte sina källor för AI-modellutbildning, eftersom det inte finns någon juridisk skyldighet för dem att göra det. Dess villkor säger att användaren äger innehållet, men också användarna bevilja en licens till Pixlr att använda innehållet. Detta är ett försök att minimera användningen av upphovsrättsskyddat innehåll.
Användare kan publicera AI-genererat innehåll som gjorts via Pixlr för kommersiella ändamål (även om vissa villkor gäller). Villkoren kräver inte att du uppger att något är AI-genererat. Användare är dock fortfarande ansvariga för brott mot rättigheter eller lagar.
Midjourney tränar sin modell med användarinput, även om den inkluderar personliga eller konfidentiella uppgifter. Midjourney hävdar att användaren bör vara försiktig med känslig information, så det är inte deras problem. Företaget försöker filtrera bort viss information för modellutbildning, men det är inte nödvändigt. Midjourney tar inget ansvar för säkerhetsproblem som kan uppstå från en användares handlingar.
Användning
Midjourney-användare kan publicera genererat innehåll för kommersiella ändamål. Vissa villkor, som kravet att prenumerera på Pro-versionen om företaget tjänar mer än 1 miljon dollar per år, ansöka. I skrivande stund behöver användare inte hävda att något är AI-genererat från Midjourney, även om lagstiftning är på gång för att ändra detta. Användare kan i allmänhet använda vilket Modjourney-innehåll som helst om det inte bryter mot några rättigheter eller lagar.
Clipchamp och Microsoft avviker från att reglera AI-genererat innehåll, aldrig hävda att Microsoft äger innehållet. Tekniskt sett säger Microsoft att användaren äger den men utan immateriella rättigheter. Användaren kan publicera Clipchamp-innehåll för kommersiella ändamål med två villkor: du får inte göra intrång i immateriella rättigheter, eller hävda att du har immateriella rättigheter för genererat innehåll.
Plagiat och upphovsrättsintrång
The Looka Villkor ange att företaget inte har några skyldigheter att dela datautbildningskällor, så de har inte det. Användare bär alla risker när de använder Looka-genererat innehåll.
Noggrannhet och tillförlitlighet
Looka tar inget ansvar för noggrannheten och tillförlitligheten av utdata från dess AI-verktyg. Användare bör verifiera alla fakta och kontrollera tillförlitligheten.
Looka-användare kan använda AI-genererat innehåll för kommersiella ändamål, men de kan behöva följa villkor eller betala en avgift. Användare behöver inte märka sitt genererade innehåll som AI-genererat. Användare bör undvika att publicera genererat innehåll som bryter mot rättigheter eller lagar.
Plagiat och upphovsrättsintrång
Det går inte att säga om Speechify tränar sin modell på upphovsrättsskyddat material. Vi vet helt enkelt inte. Speechifys villkor rekommenderar att du inte använder upphovsrättsskyddat material för indata, vilket tyder på att vissa utdata kan ha upphovsrättsskyddad data. Speechify säger sig inte bära något ansvar för detta.
Noggrannhet och tillförlitlighet
Speechify, enligt dess Villkor, tar inget ansvar för noggrannheten i dess utdata. Användare bör alltid kontrollera aktualitet, tillförlitlighet och exakthet med Speechify.
Kapwing-användare tar alla risker när de väljer att mata in konfidentiell information i sitt AI-verktyg. Det ger inte heller någon garanti eller ansvar för tjänstens säkerhet.
Användning
Du kan publicera Kapwing-innehåll kommersiellt, men Kapwing råder användare att vara försiktiga. Deras villkor säger inte om användare måste deklarera att utdata från Kapwing är AI-genererad.
Otter.ai utesluter sig från ansvar angående noggrannhet och tillförlitlighet, så användare bör alltid verifiera innehållet. Att använda sakligt vilseledande eller felaktig information kan orsaka juridiska problem eller anseende för användaren.
PhotoRoom kan ta användarinmatningar och utdata för modellutbildning, men det finns begränsad information om huruvida tjänsten gör det eller inte. PhotoRoom-villkoren påminner användare om att undvika att mata in upphovsrättsskyddat innehåll. Användarna bär allt ansvar för detta.
PhotoRoom-innehåll kan användas för kommersiella ändamål, men vissa villkor kan gälla, som att registrera dig för en prenumeration. Villkoren säger att du inte behöver markera innehåll som AI-genererat. Användare kan se andra konsekvenser om de bryter mot rättigheter eller lagar.
Villkor
Denna information är endast avsedd för allmän information och bör inte ses som juridisk rådgivning. E-handelsplattformar tar inget ansvar för fel eller utelämnanden. Konsultera en lämplig jurist för råd och vägledning skräddarsydd för dina specifika behov och omständigheter.
Slutsats
Allmänheten av AI gör det allt mer sannolikt för oss alla att använda verktyg och appar baserade på denna teknik – men många av oss har inte lyxen av den tid som behövs för att läsa deras villkor.
Med tanke på hur många AI T&C:er vi betygsatt med låga läsbarhetspoäng, verkar det som ogenomträngligheten i dessa dokuments juridiska karaktär avskräcker användare från att ens försöka förstå dem.
Vi samarbetade med en jurist för att analysera dokumenten åt oss, men det är tveksamt om detta borde vara nödvändigt.
Vi hoppas att den här forskningen – inklusive dess läsbarhetsvärderingar och Josilda Ndreajs expertis om villkor och villkor att vara uppmärksam på – kommer att hjälpa dig att välja vilka AI-appar och verktyg du ska engagera dig i.
Metodik och källor
Hur vi genomförde forskningen
Med en startlista med cirka 90 AI-verktyg och appar samlade vi först varje verktygs juridiska dokumentation, från villkor och integritetspolicyer. Vi registrerade sedan ordlängden på dessa dokument och beräknade deras läsbarhetspoäng med hjälp av Flesch-Kincaids betygssystem. Därefter tog vi hjälp av en juridisk expert, Josilda Ndreaj (LLM), som granskade ett urval av dessa juridiska dokument och identifierade nyckelpunkter som användare borde vara medvetna om.
För cirka 30 av AI-verktygen som har mobilappversioner tillgängliga, sökte vi var och en på Apple App Store och registrerade deras sekretessetiketter som visas på deras listor. Dessa är indelade i 14 kategorier av data som kan samlas in från användare, och för vilket ändamål. För att beräkna vilka AI-appar som samlade in mest data, mätte vi hur många av de 14 möjliga kategorierna dessa appar spårade sina användare över.
Det är viktigt att notera att dessa 14 kategorier är uppdelade ytterligare i individuella datapunkter. Till exempel inkluderar 'Kontaktinfo' fem datapunkter, som är; 'Namn', 'E-postadress', 'Telefonnummer', 'Fysisk adress' och 'Annan användarkontaktinformation'. För att ta reda på vilka appar som samlar in flest individuella datapunkter, ta en titt på den sista kolumnen i var och en av tabellerna.
Vissa appar samlar in fler individuella datapunkter än de som visas högre upp i rankningen. Detta beror på att vår rankningsmetod tar hänsyn till vilka appar som samlar in data i de flesta kategorierna totalt sett, vilket föreslår en bredare och därför mer "fullständig" bild av användardata snarare än djupet av information de samlar in i varje kategori.
Källor
Apple App Store sidor för varje app, exakt från februari 2025.
Olika dokumentation för varje AI-app (inklusive villkor och sekretesspolicyer) som Josilda Ndreaj fick åtkomst till och granskades i februari 2024, förutom DeepSeek, som öppnades och granskades i januari 2025.
Flesch-Kincaid läsbarhetsräknare.
Ordräkningsskrapa.
Olika sammanfattningar för att informera den första frölistan över AI-appar och verktyg, inklusive:
Om du är ägare till något av AI-verktygen som ingår i denna forskning och du vill ifrågasätta informationen på den här sidan, är vi villiga att uppdatera den under förutsättning att vi granskar bevisen du tillhandahåller. När vi kontaktar oss i detta avseende ber vi vänligen om:
affärsdokument som verifierar din legitimitet (till exempel registreringsbevis eller registreringsdokument)
informationen på denna sida som du tror är föråldrad (var vänlig)
hur den ska uppdateras och varför, med länkar till dokumentation som backar upp detta (till exempel ändringar av användarvillkoren)
Vänligen kontakta oss på [e-postskyddad] med ämnesraden: "Korrigeringsbegäran: AI-verktygsstudie", plus namnet på AI-verktyget du kontaktar oss angående.
Bogdan Rancea är en av grundarna av Ecommerce-Platforms.com och huvudkurator för ecomm.design, en uppvisning av de bästa e-handelswebbplatserna. Med över 12 år i det digitala handelsområdet har han en mängd kunskap och ett skarpt öga för fantastiska onlinehandelsupplevelser. Som e-handelsutforskare testar och granskar Bogdan olika plattformar och designverktyg som Shopify, Figma och Canva och ger praktiska råd till butiksägare och designers.
Denna webbplats använder cookies, endast för väsentlig funktionalitet och analys som beskrivs i vår Cookie policy.