Bakom det finstilta: Förstå AI-appar och sekretess

Om du prenumererar på en tjänst från en länk på den här sidan kan Reeves and Sons Limited tjäna en provision. Se vår etik uttalande.

Artificiell intelligens har snabbt blivit en del av den samtida tidsandan - men etiska överväganden kring ämnet förblir olösta. Hur många användare är fullt medvetna om vad de registrerar sig för?

Här, genom att finslipa villkoren och integritetspolicyn bakom de mest populära AI-verktygen och apparna, packar Ecommerce Platforms upp det du behöver veta när du använder dessa verktyg för dina dagliga affärsbehov.

Vi har analyserat data och personlig information som dessa verktyg samlar in (och i vilket syfte) för att hjälpa dig att avgöra vilken AI-verktyg, programvara och plattformar är de mest lämpliga för din avsedda användning. Vi rådfrågade också en juridisk expert för att bryta ner jargongen bakom dessa verktygs villkor.

Vi analyserade Apple App Stores sekretessetiketter för cirka 30 tillgängliga mobilappversioner av populära AI-verktyg för att förstå vilka som samlar in din data och varför. 

Den data som samlas in från användare (och dess syfte) är indelad i 14 kategorier, vilket gör det möjligt att fastställa vilka appar som samlar in och spårar mest användardata.

För ytterligare information, ta en titt på metodavsnittet i slutet av denna sida.

Vilken data samlar dessa AI-appar in?

AI-verktygen som bedöms i denna forskning samlar in data av olika slag. Vissa av dessa fokuserar på personliga uppgifter om användare — från skärmnamn och bankuppgifter, till deras hälsa och kondition, och till och med känslig information som ras/etnicitet, sexuell läggning, könsidentitet och politiska åsikter. 

Andra relaterar till innehåll som skapats av användare (som e-post och meddelanden, foton, videor och ljudinspelningar), eller hur användare interagerar med själva produkten, som deras sökhistorik i appen eller vilka annonser de har sett. Mer opersonlig är fortfarande den diagnostiska informationen som samlas in för att visa kraschdata eller energianvändning.

Varför samlar dessa AI-appar in data?

Det finns olika anledningar till att appar samlar in data, varav vissa kan ses som mer motiverade än andra — Till exempel kan biometri eller kontaktinformation användas för att autentisera användarens identitet.

På samma sätt kan åtkomst till viss data krävas för att en app ska fungera korrekt, inklusive för att förhindra bedrägeri eller förbättra skalbarhet och prestanda.

Mer specifikt behöver meddelandeappar åtkomst till kontakter, telefonkameror och mikrofoner för att tillåta samtal, medan geolokalisering är nödvändig för taxi- eller leveransappar.

Antagligen mindre väsentliga skäl att samla in data inkluderar reklam eller marknadsföring av appens utvecklare (till exempel för att skicka marknadskommunikation till dina användare); möjliggöra tredjepartsannonsering (genom att spåra data från andra appar för att rikta riktade annonser till användaren, till exempel); och analysera användarbeteende för syften inklusive att bedöma effektiviteten av befintliga funktioner eller planera nya.

Hej mobilanvändare 👋 Tabellerna nedan kan vara rullade horisontellt för att se all data, men den här sidan ser definitivt bättre ut Desktop.

AI-appar som samlar in din data för att dela med tredjepartsannonsörer

Kolumnrubriker med knappar är sorterbara.
AI-app % data delas med andra Webbhistorik Kontaktinformation Identifierare Plats Övriga data Inköp Sökhistorik Användningsdata Antal insamlade datapunkter
canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
bing 14% 1 1 2
Pixai 14% 1 1 2
wombo 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Lins 7% 1 1
Tala 7% 1 1
starryai 7% 1 1

Av alla AI-appar som ingår i vår forskning, Canva, ett grafiskt designverktyg, samlar in mest data från sina användare för tredjepartsreklamändamål — cirka 36 %. Däremot samlar de fem appar som samlar in minst data för detta ändamål drygt 7 %.

Den data som Canvas app samlar in från dig och delar med tredje part inkluderar din sökhistorik, plats, e-postadress och annan information som visas i tabellen ovan. 

Den spelifierade språkinlärningsappen följer Canva nära Duolingo (~36%), Google Assistant (~21%) och Microsofts Bing (~14%) — allt detta även dela dina uppgifter med tredje part

Av de fem appar som samlar in minst data, endast starryai (en bildgenerator) begränsar sig till att endast dela användningsdata.

AI-appar som samlar in din data för sin egen fördel

Kolumnrubriker med knappar är sorterbara.
Applikation % data som samlats in för appens egen fördel Webbhistorik Kontaktinformation Identifierare Plats Inköp Sökhistorik Användningsdata Antal insamlade datapunkter
canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
Fotorum 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
bing 14% 1 1 2
Lins 14% 1 1 2
Utter 7% 2 2
Äta 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Tala 7% 1 1
wombo 7% 1 1

Canva toppar också diagrammet för AI-appar som samlar in användardata för sina egna reklam- eller marknadsföringsändamål. För att göra det samlar Canva in cirka 43 % av användarnas data.

På tredje plats, Amazon Alexa samlar in 36 % av dina uppgifter för samma ändamål. Detta inkluderar din e-postadress, fysiska adress, telefonnummer, sökhistorik och köphistorik, plus fem andra datapunkter. Google Assistant samlar in och delar samma procentandel av data av denna anledning, dock över åtta individuella datapunkter, jämfört med de tio som Amazon Alexa samlar in.

Smakämnen text-till-tal röstgenerator, Speechify, är bland de appar som samlar in minst data. Enligt Apple App Store-listans sekretessetiketter samlar Speechify in bara en datapunkt för sin egen fördel; ditt enhets-ID.

AI-appar som samlar in din data för alla ändamål

Kolumnrubriker med knappar är sorterbara.
Applikation % data insamlad Webbhistorik Kontaktinformation Kontakt Diagnostik Ekonomisk information Health & Fitness Identifierare Plats Övriga data Inköp Sökhistorik Känslig info Användningsdata Användarinnehåll Antal insamlade datapunkter
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
canva 64% 11 3 1 8 5 4 5 10 6 53
Utter 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
MINNE 43% 6 4 6 6 6 4 32
ELSA talar 43% 2 6 6 3 3 3 23
Fotorum 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
AI:s förvirring 36% 6 6 2 1 6 21
1 / 2

Alla AI-modeller kräver någon form av träning genom maskininlärning - vilket betyder det de behöver data.

Om vi ​​vill att AI-verktyg ska förbättras och bli mer användbara, kan vår integritet ses som en nödvändig avvägning mot att tillhandahålla dessa uppgifter.

Men frågan om var gränsen mellan nytta och exploatering bör dras, och varför, är en taggig en.

Med tanke på dess nuvarande ryktbarhet är det värt att ta upp DeepSeek. Dess lista på Apple App Store anger att DeepSeek inte samlar in användardata för sin egen fördel (till exempel DeepSeeks egen marknadsföring och reklam) eller för att dela med tredje part.

Men det är värt att påpeka det deras Integritetspolicyn säger något annat (mer om detta senare). 

Smakämnen DeepSeek-appen samlar själv in 50 % av sina användares data, som tjänar DeepSeeks Analytics- och appfunktionalitet. Som jämförelse ChatGPT-appen samlar in 36 %.

Vissa medier rapporterar oro över säkerhetsrisker relaterade till DeepSeeks kinesiska ursprung (både när det gäller datainsamling och eventuell spridning av felaktig information) och underskridandet av amerikanska rivaler. Båda är osannolikt att lindras av DeepSeeks villkor och sekretesspolicy, som skulle ta runt 35 minuter att läsa, och är klassade som "mycket svårt" på Flesch-Kincaid läsbarhetsskalan.

Oavsett hur din data används, Amazon Alexa samlar in mer av sina användares data än någon annan AI-app ingår i denna forskning. Sammantaget samlar det 93% av din data (eller 116 individuella mätvärden, främst kontaktinformation, användarinnehåll och användningsdata).

Google Assistant kommer härnäst, samlar 86%, Följt av Duolingo, som samlar in 79%.

I den andra änden av skalan, AI-bildgenerator, Stable Diffusion, samlar inte in några data. Det är enligt sekretessetiketter på Apple App Store-listan.

Även om det är sant att alla generativ AI modeller kräver enorma mängder data för att tränas, denna utbildning sker innan utvecklingen av specifika appar. I de flesta fall äger appskapare inte AI-modellerna de använder; insamling av användardata relaterar därför till själva appens funktionalitet. Detta kan förklara varför vissa av apparna vi har undersökt inte har någon information i tabellen ovan.

Navigera i villkoren bakom AI-verktyg

Låt oss nu titta på juridisk dokumentation bakom olika AI-verktyg för att ta reda på det hur lätta eller svåra de är att läsa. Detta är baserat på Flesch-Kincaid läsnivåtest.

Detta system likställer texter med amerikanska skolläsnivåer (från femte till 12:e klass), sedan College, College Graduate och Professional. Texter i sjätte klass definieras som "konversationsengelska för konsumenter", medan professionella texter beskrivs som "extremt svåra att läsa".

Ju lägre läsbarhetspoäng desto svårare är texten att läsa.

Kolumnrubriker med knappar är sorterbara.
Clipchamp 3 timmar 16 minuter 27.2 🤯🤯🤯🤯🤯🤯🤯
bing 2 timmar 20 minuter 35.4 🤯🤯🤯🤯🤯
veed.io 2 timmar 15 minuter 37.9 🤯🤯🤯🤯🤯
Facetune 2 timmar 4 minuter 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 timmar 47 minuter 31.4 🤯🤯🤯🤯🤯🤯
Utter 1 timmar 11 minuter 32.4 🤯🤯🤯🤯🤯🤯
Jaspis 1 timmar 9 minuter 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 timmar 6 minuter 30.9 🤯🤯🤯🤯🤯🤯
Tala 1 timmar 6 minuter 35.0 🤯🤯🤯🤯🤯🤯
Runway 1 timmar 2 minuter 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

År 2023, brittiska företagsförsäkringsbolaget Superscript tillfrågade ägarna till 500 små och medelstora företag (SMF) för att ta reda på vad som förbrukar mest av deras tid.

Talande nog är "att få tillräckligt med sömn" - avgörande för fysisk och mental hälsa och kognitiv funktion - på tredje plats, efter "jobba långa timmar" och "sortera ut skattedeklarationer".

En tredjedel av de tillfrågade ansåg att det inte var möjligt att sköta hela sin admin under arbetstid, och sa de behövde fyra extra timmar om dagen för att ta sig igenom det hela.

Detta ger en känsla av hur straffande det kan vara att driva ett SME, och att tid som behövs för att läsa villkoren bakom verktygen de litar på ligger inte lätt att komma förbi.

I detta sammanhang är de 40 minuter långa lästiderna för T&C:erna för att transkribera verktyg som Otter, Trint och Descript, mycket betydelsefulla. 

Och det är förutsatt att det är möjligt att förstå de mest svårlästa villkoren. Det är därför vi sökte expertis hos en juridisk expert.

Josilda Ndreaj, en jurist och licensierad advokat, har navigerat i komplexa juridiska frågor på uppdrag av Fortune 500-kunder och tillhandahållit råd åt olika företag.

På senare tid har hon som oberoende konsult inriktad på immaterialrätt i skärningspunkten mellan blockchain-teknik och artificiell intelligens.

Josilda Ndreaj (LLM) är en jurist och licensierad advokat med expertis inom immateriella rättigheter (IP).

Hennes karriär som juridisk konsult började på en prestigefylld internationell advokatbyrå som vänder sig till Fortune 500-kunder. Här navigerade Josilda i komplexa juridiska frågor och gav råd till olika företag.

Driven av intressen för innovation, kreativitet och framväxande teknologier, gav sig Josilda sedan in på oberoende konsulttjänster och fokuserade på immaterialrätt, genom att täcka skärningspunkten med blockchain-teknik och artificiell intelligens.

Josilda har två civilingenjörsexamina; en specialiserad på civil- och handelsrätt från Tirana University, och den andra med inriktning på immaterialrätt, från Zhongnan University of Economics and Law.

Som sådan var Josilda unikt positionerad för att granska ett urval av dessa AI-verktygs juridiska dokument, och drar fram nyckelpunkter till förmån för de av oss som inte har två Master of Laws examina.

Hennes sammanfattningar beskrivs nedan:

Gemini (tidigare Bard) har ingen skyldighet att deklarera utbildningskällor, så vi kan inte kontrollera om den är utbildad på upphovsrättsskyddat material. Tvillingarna är inte undantagna från ansvar för sådana intrång; om en upphovsrättsinnehavare begär åtal, bär Gemini ett visst ansvar. Men det är viktigt att notera att Gemini är utbildad i vad användaren ger den. För detta, Gemini kräver en licens från användaren. Om användaren samtycker till att ge den licensen till Gemini, men de (användaren) faktiskt inte äger upphovsrätten, övergår ansvaret till användaren.

Användare behåller äganderätten till sina input och uppmaningar, men produktionsägande är mer komplext. Gemini gör inte detta tydligt i sina Villkor. Många lagar erkänner inte immateriella rättigheter för maskiner. Det är dock tveksamt att hävda att resultatet är "mänskligt genererat", även om användaren äger indata.

Noggrannhet och tillförlitlighet

Använd alltid diskretion när du förlitar dig på Gemini för korrekt information. Dess Användarvillkoren anger att korrekthet inte ska antas automatiskt av användaren. Därför bör du faktakolla allt innehåll som genereras från Gemini. 

Företagsägare bör aldrig publicera en utdata från Gemini utan att korsreferens, granska för uppdateringar och kontrollera med experter för noggrannhet. Annars riskerar de att publicera vilseledande information, vilket kan få anseende eller juridiska konsekvenser.

Säkerhet och sekretess

Google (ägaren till Gemini) tillhandahåller ingen information i sin sekretesspolicy om hur den hanterar konfidentiell data.

Användning

Google anger ingenting i sina användarvillkor om huruvida innehåll som genereras av Gemini kan användas för kommersiella ändamål. Det förklarar begränsningar för saker som immateriella rättigheter men inget specifikt för AI-genererat innehåll.

För närvarande kräver ingen lagstiftning att ChatGPT offentligt deklarerar vad dess modell är utbildad på. Så eftersom det inte avslöjar sina källor kan vi inte veta om ChatGPT levererar eller bearbetar innehåll som är skyddat av upphovsrättslagar. Om någon identifierar upphovsrättsskyddat innehåll från ChatGPT, de kan göra anspråk för att ta bort innehållet.

ChatGPT:s villkor anger att användarinput, även om det är upphovsrättsskyddat, används för att förbättra servicen och träna modellen; och användaren kan inte välja bort detta. ChatGPT:s villkor säger att en användare äger allt in- och utmatningsinnehåll (om inmatningsinnehållet redan används lagligt), men det garanterar inte att användaren äger upphovsrätten till det in- och utdatainnehållet. Dessutom, användare kan inte utge något från ChatGPT som "mänskligt genererat".

Noggrannhet och tillförlitlighet

Användare bör verifiera all information från ChatGPT. Det är för att ChatGPT tar inget ansvar för att tillhandahålla korrekt, uppdaterat innehåll. Enligt dess avsnitt om ansvarsfriskrivning, användaren tar på sig alla risker för noggrannhet, kvalitet, tillförlitlighet, säkerhet och fullständighet. Verifiera därför alltid fakta från ChatGPT; korsreferenser, granska för uppdateringar och kontrollera med experter för noggrannhet också. Företagsägare kan möta juridiska eller anseende konsekvenser om de inte verifierar ChatGPT-innehåll för korrekthet innan publicering. 

Säkerhet och sekretess

ChatGPT samlar in information från indata – inklusive personlig information – för att eventuellt träna sina modeller (enligt integritetspolicyn). Användaren kan välja bort. Situationen förändras om data skickas via API-anslutningar (ChatGPT Enterprise, Team, etc); det är för att ChatGPT använder inte input från företagskunder att utbilda modeller. ChatGPT har säkerhetsåtgärder på plats, men tar inte uttryckligen upp ansvaret för ett säkerhetsintrång. Allt beror på regionala lagar. 

Användning

ChatGPT-användare äger sitt in- och utmatningsinnehåll; användarna måste därför se till att innehållet inte bryter mot några lagar. Användare kan inte hävda att innehållet är mänskligt genererat, men du behöver inte heller säga att det är AI-genererat. Så länge som användare följer regionala lagar och användarvillkoren kan ChatGPT-innehåll användas för kommersiella ändamål, på sociala medier, för betald reklam och andra kanaler. Det rekommenderas att du kollar fakta, gör referenser och följer lagar innan du publicerar innehåll från ChatGPT. 

Varken sekretesspolicyn eller villkoren anger om DeepSeeks AI-verktyg har tränats på upphovsrättsskyddat material. Dessutom ger de inga garantier för att utdata inte kommer att göra intrång i någons upphovsrätt. DeepSeeks användarvillkor anger att användare behåller rättigheterna till sina indata (uppmaningar), men detta betyder inte nödvändigtvis att de är upphovsrättsskyddade i första hand, så användare bör vidta åtgärder för att säkerställa att det de använder som uppmaningar inte är någon annans immateriella rättigheter.

Villkoren anger också uttryckligen att användaren ansvarar för alla ingångar och motsvarande utgångar, så med det i åtanke bör användare självständigt verifiera dessa genom att söka juridisk rådgivning och/eller använda upphovsrättsdatabaser. Till exempel US Copyright Office Offentlig katalog tillåter användare att söka efter registrerade verk i USA, medan Googles omvänd bildsökning hjälper till att kontrollera om en bild tidigare har publicerats eller upphovsrättsskyddad.

Noggrannhet och tillförlitlighet

DeepSeeks användarvillkor säger att utdata är AI-genererade och därför kan innehålla fel och/eller utelämnanden. Det hänvisar specifikt till medicinska, juridiska och ekonomiska frågor som användare kan fråga DeepSeek om, och hur DeepSeeks utdata inte utgör råd. Men mer allmänt, det säger samma sak om "professionella frågor", som kan vara precis vad som helst - från marknadsföring och forskning till teknik och utbildning och vidare - och att utdata inte "representera åsikter vilken som helst yrkesområde.' Användare bör därför oberoende verifiera alla DeepSeeks utdata för noggrannhet.

Säkerhet och sekretess

DeepSeeks sekretesspolicy förklarar att användarinmatningar bearbetas för att generera utdata, men också för att förbättra DeepSeeks tjänst. Detta inkluderar ”utbilda och förbättra [sin] teknik”. Användare bör därför vara försiktiga med att mata in känslig information, och även om DeepSeek har 'kommersiellt rimliga"åtgärder för att skydda data och information som används som indata, ger det inga absoluta garantier. DeepSeeks villkor säger att de inte publicerar input eller utdata i offentliga forum, men vissa kan delas med tredje part.

Användning

Allt innehåll som användare genererar genom DeepSeek kan användas för kommersiella ändamål, men på grund av gråzoner kring plagiat och noggrannhet bör användare vidta åtgärder för att verifiera innehållet innan de använder det på detta sätt. DeepSeeks användarvillkor hänvisar inte till någon begränsning av var i världen användare kan publicera detta innehåll, men de anger tydligt att användare måste förklara det som AI-genererat "för att uppmärksamma allmänheten på innehållets syntetiska natur".

Canva är inte juridiskt skyldigt att avslöja sina källor för träningsdata. Därför vet vi inte om upphovsrättsskyddat material används. Användaren äger allt in- och utmatningsinnehåll (inte Canva), men Canva kan använda det innehållet för att förbättra sina tjänster. 

Noggrannhet och tillförlitlighet

Canva björnar inget ansvar för innehållets riktighet. Användaren ska alltid verifiera fakta. 

Säkerhet och sekretess

canva använder inmatat innehåll för att träna sin modell. Det är användarens ansvar att undvika att använda konfidentiell eller personlig information för input. Canva försöker filtrera sådana ingångar för modellträning, men det finns inga garantier. Canvas AI-verktyg ansvarar inte för säkerhetsproblem som orsakas av användaren.

Användning

Canva-användare kan använda genererat innehåll för kommersiella ändamål. Det finns villkor, dock som att inte publicera vilseledande innehåll. Företaget har en lista över förbjudna föremål, under avsnittet "Var en god människa".

I likhet med ChatGPT, deklarerar DALL-E inte källor för sin modellträning. Om du däremot hittar upphovsrättsskyddat innehåll, kan du kan lämna in en begäran om avlägsnande. Det är svårt att kontrollera om DALL-E gör intrång i en upphovsrätt eftersom ingen lagstiftning kräver att DALL-E avslöjar sina datakällor. Användarinmatning, enligt villkoren, kan användas för att träna DALL-E:s modell – även om det är upphovsrättsskyddat innehåll. Användaren kan välja bort detta.  

DALL-E användarnas eget in- och utmatningsinnehåll (inte DALL-E), men det betyder inte att användaren har upphovsrätt på nämnda innehåll. Även användare kan inte hävda att DALL-E-innehåll är mänskligt genererat.

Noggrannhet och tillförlitlighet

DALL-E björnar inget ansvar för felaktigt innehåll. Dess villkor överför allt ansvar på användaren. Dessa skyldigheter inkluderar innehållets tillförlitlighet, noggrannhet, kvalitet, säkerhet och fullständighet. Så innan du publicerar, användare bör alltid korsreferens, granska för uppdateringar, verifiera fakta och kontrollera med experter, eftersom publicering av falsk information kan leda till anseende eller juridiska konsekvenser. 

Säkerhet och sekretess

Integritetspolicyn och villkoren från DALL-E tar aldrig uttryckligen upp ansvar i händelse av ett säkerhetsintrång. DALL-E har dock säkerhetsåtgärder på plats. Vem som bär ansvaret vid ett hack beror på regionala lagar.

DALL-E samlar in en användares input för modellträning, även personlig information, men du kan välja bort detta. Men med API:t hanterar DALL-E indata på olika sätt; den använder inte data från affärsanvändare för att träna sina modeller

Användning

Smakämnen användaren äger DALL-E in- och utmatningsinnehåll; de måste också se till att innehållet inte bryter mot några lagar eller DALL-E-villkoren. Du kan inte hävda att innehåll från DALL-E är mänskligt genererat, men du behöver inte heller säga att det är AI-genererat. 

Du kan använda DALL-E för kommersiella ändamål, så länge du följer alla lagar och DALL-E-villkoren. Reglerna kan komma att ändras, men i skrivande stund är användare välkomna att publicera DALL-E-innehåll på sociala medier, i annonser och på andra kanaler. Användare bör alltid göra korrekta referenser och faktakontroller för att undvika att bryta mot lagar.

Bing har ingen skyldighet att dela sina dataträningskällor, vilket gör det mycket svårt att ta reda på om Bing AI oavsiktligt använder upphovsrättsskyddat innehåll. Även om det är svårt att identifiera, kan användare göra anspråk på upphovsrättsskyddat innehåll. Microsofts tjänsteavtal säger att Bing AI tar användarinput och -utgångar för att förbättra sin modell, men det finns inget formellt på plats för att förhindra stöld av immateriell egendom.

Smakämnen Tjänsteavtalet säger att användare ger Microsoft en världsomspännande och royaltyfri immateriell egendomslicens för att använda ditt innehåll. Dessutom Bing/Microsoft tar användarinput för att träna AI-modeller.

Noggrannhet och tillförlitlighet

Microsoft erbjuder inga garantier för innehållets riktighet eller aktualitet från dess AI-tjänster. Därför bör du faktakolla allt från Microsofts AI-verktyg, speciellt om du är en företagsägare som vill undvika eventuella anseende och juridiska konsekvenser. 

Säkerhet och sekretess

Microsofts AI-verktyg (inklusive Bing AI) använda personlig och konfidentiell användardata för att träna sina modeller. Dess serviceavtal täcker inte AI-genererat innehåll; istället försöker den flytta allt ansvar för AI-innehåll till användaren. Microsoft tar heller inget ansvar för sina kunders sekretess- och säkerhetspraxis. Kort sagt, om din data blir intrång när du använder Bing AI är det ditt problem, inte Microsofts.  

Användning

Microsoft gör inte anspråk på äganderätt till användarinnehåll, men det reglerar inte specifikt AI-genererat innehåll, där äganderätten är osäker. Tjänsteavtalet låter människor använda innehåll för kommersiella ändamål, med några betydande villkor: du måste acceptera att AI-genererat innehåll saknar mänsklig kreativitet, så det kan inte hävdas som immateriell egendom; du får inte heller göra intrång i andras immateriella rättigheter. Kort sagt, du kan inte använda andras immateriella rättigheter, men vad du än gör med Bing är förmodligen inte din egen immateriella egendom.

Quillbot har ingen skyldighet att avslöja källor som den använder för att träna modeller. Emellertid försöker företaget intressant nog att reglera en unik situation: vad händer om källan till modellträning är AI:s produktion? Quillbot försöker i huvudsak minimera risken för upphovsrättsskyddad produktion, men säger att det fortfarande finns en chans att utdata är upphovsrättsskyddat om användare matar in upphovsrättsskyddat innehåll. För att göra saker mer förvirrande, försöker Quillbot täcka alla områden genom att säga att användarna ger Quillbot en obegränsad, underlicenserbar licens samtidigt som användarna hävdar att användarna äger alla deras utdata. 

Noggrannhet och tillförlitlighet

Quillbot björnar inget ansvar för noggrannhet eller tillförlitlighet. Användare bör vara mycket försiktiga och verifiera alla fakta från Quillbot. 

Säkerhet och sekretess

Quillbot har åtgärder för att skydda användarnas integritet, men det kan ändå sluta med att personuppgifter behandlas. Det finns särskilda skydd för barns integritet. Ansvaret för dataförlust från ett hack hanteras från fall till fall. Quillbot säger att användaren bör vidta åtgärder för att förhindra att deras personuppgifter hackas, och att Quillbot har dataskyddselement på plats. 

Användning

Quillbot-användare kan publicera genererat innehåll för kommersiella ändamål, men du kan behöva följa vissa regler, som att inte publicera skadligt eller vilseledande innehåll. Quillbots Villkor säg inte att du behöver deklarera att dess innehåll är AI-genererat. Kort sagt användare kan publicera innehåll genererat av Quillbot så länge det inte bryter mot några lagar eller rättigheter. 

Pixlr avslöjar inte sina källor för AI-modellutbildning, eftersom det inte finns någon juridisk skyldighet för dem att göra det. Dess villkor säger att användaren äger innehållet, men också användarna bevilja en licens till Pixlr att använda innehållet. Detta är ett försök att minimera användningen av upphovsrättsskyddat innehåll. 

Noggrannhet och tillförlitlighet

Pixlr tar inget ansvar för felaktigheter i sitt AI-genererade innehåll. Användare bör vara noga med att faktakolla allt från Pixlr. 

Säkerhet och sekretess

Pixlr tar användarindata för AI-modellträning. Det överför bördan på användaren att vara försiktig med att mata in personlig eller konfidentiell information. Pixlr avsäger sig sitt ansvar att filtrera viss information från sina träningsdata, även om det använder vissa filter för att blockera personlig eller konfidentiell information. Pixlr hävdar inget ansvar för säkerhetsproblem orsakade av användarnas handlingar

Användning

Användare kan publicera AI-genererat innehåll som gjorts via Pixlr för kommersiella ändamål (även om vissa villkor gäller). Villkoren kräver inte att du uppger att något är AI-genererat. Användare är dock fortfarande ansvariga för brott mot rättigheter eller lagar. 

midjourney användare ger företaget rättigheter till alla tillgångar som görs genom det, men användaren äger också alla tillgångar. Det finns undantag, som hur du inte kan göra anspråk på äganderätt om du har just uppskalerat en bild från en originalskapare.

Noggrannhet och tillförlitlighet

Midjourney tar inget ansvar för tillförlitligheten och noggrannheten av dess innehåll. Användare bör därför vara extra försiktig för att verifiera fakta och kontrollera tillförlitligheten. 

Säkerhet och sekretess

Midjourney tränar sin modell med användarinput, även om den inkluderar personliga eller konfidentiella uppgifter. Midjourney hävdar att användaren bör vara försiktig med känslig information, så det är inte deras problem. Företaget försöker filtrera bort viss information för modellutbildning, men det är inte nödvändigt. Midjourney tar inget ansvar för säkerhetsproblem som kan uppstå från en användares handlingar. 

Användning

Midjourney-användare kan publicera genererat innehåll för kommersiella ändamål. Vissa villkor, som kravet att prenumerera på Pro-versionen om företaget tjänar mer än 1 miljon dollar per år, ansöka. I skrivande stund behöver användare inte hävda att något är AI-genererat från Midjourney, även om lagstiftning är på gång för att ändra detta. Användare kan i allmänhet använda vilket Modjourney-innehåll som helst om det inte bryter mot några rättigheter eller lagar. 

Clipchamp är en Microsoft-produkt, så den hävdar ingen skyldighet att dela datakällor för modellträning. Därför är det svårt att avgöra om AI-verktyget oavsiktligt använder upphovsrättsskyddad data. Någon måste identifiera upphovsrättsintrånget för att göra ett anspråk, vilket är osannolikt. Microsofts tjänsteavtal säger den kan använda användarinmatningar och utdata för att förbättra tjänsterna, och Microsoft reglerar inte frågor om immateriella rättigheter. Också, användare beviljar en världsomspännande, royaltyfri immateriell egendomslicens till Microsoft

Noggrannhet och tillförlitlighet

Clipchamp och Microsoft garanterar ingenting när det gäller noggrannheten eller aktualiteten hos dess AI-verktyg, så användare bör verifiera alla fakta innan publicering. Detta gäller särskilt för företagare som kan möta juridiska konsekvenser och anseende. 

Säkerhet och sekretess

Clipchamp och Microsoft använda personliga och konfidentiella uppgifter för modellträning. Microsoft försöker flytta över ansvaret för alla innehållsfrågor till användaren. Detsamma gäller hacking och säkerhetsintrång; det är användarens ansvar om något händer. 

Användning

Clipchamp och Microsoft avviker från att reglera AI-genererat innehåll, aldrig hävda att Microsoft äger innehållet. Tekniskt sett säger Microsoft att användaren äger den men utan immateriella rättigheter. Användaren kan publicera Clipchamp-innehåll för kommersiella ändamål med två villkor: du får inte göra intrång i immateriella rättigheter, eller hävda att du har immateriella rättigheter för genererat innehåll. 

The Looka Villkor ange att företaget inte har några skyldigheter att dela datautbildningskällor, så de har inte det. Användare bär alla risker när de använder Looka-genererat innehåll. 

Noggrannhet och tillförlitlighet

Looka tar inget ansvar för noggrannheten och tillförlitligheten av utdata från dess AI-verktyg. Användare bör verifiera alla fakta och kontrollera tillförlitligheten. 

Säkerhet och sekretess

Looka använder indata – även potentiellt personliga och konfidentiella data – för att träna sin modell, så användaren är ansvarig för att inte använda denna typ av data i sin inmatning. Looka försöker filtrera sådan data, men de hävdar att de inte måste. Dessutom är alla säkerhetsfrågor användarens börda. 

Användning

Looka-användare kan använda AI-genererat innehåll för kommersiella ändamål, men de kan behöva följa villkor eller betala en avgift. Användare behöver inte märka sitt genererade innehåll som AI-genererat. Användare bör undvika att publicera genererat innehåll som bryter mot rättigheter eller lagar. 

Det går inte att säga om Speechify tränar sin modell på upphovsrättsskyddat material. Vi vet helt enkelt inte. Speechifys villkor rekommenderar att du inte använder upphovsrättsskyddat material för indata, vilket tyder på att vissa utdata kan ha upphovsrättsskyddad data. Speechify säger sig inte bära något ansvar för detta

Noggrannhet och tillförlitlighet

Speechify, enligt dess Villkor, tar inget ansvar för noggrannheten i dess utdata. Användare bör alltid kontrollera aktualitet, tillförlitlighet och exakthet med Speechify. 

Säkerhet och sekretess

Tala överlåter allt ansvar på användaren när det gäller att mata in känsliga eller personliga uppgifter. Verktyget använder indata för att träna modeller, så användare bör vara försiktiga. Speechify behöver inte nödvändigtvis filtrera känsliga eller personliga uppgifter, men det försöker med vissa filter. Allt ansvar för säkerhetsfrågor överförs till användaren. 

Användning

Speechify-användare kan använda utgångar för kommersiella ändamål, med vissa villkor som att behöva prenumerera eller få licens. Användare behöver inte deklarera att Speechify-innehåll är AI-genererat. Speechify-användare bör dock aldrig bryta mot rättigheter eller lagar när de publicerar Speechify-utdata. 

Kapwingen Villkoren lägger alla immateriella rättigheter och ansvar för noggrannhet på användaren. Alla användare ger Kapwing en icke-exklusiv licens, men användarna behåller äganderätten till innehållet. Kapwing avslöjar ingenting om huruvida den använder indata för modellträning. 

Noggrannhet och tillförlitlighet

Kapwing lägger allt noggrannhetsansvar på användaren, särskilt eventuella juridiska och anseende konsekvenser.

Säkerhet och sekretess

Kapwing-användare tar alla risker när de väljer att mata in konfidentiell information i sitt AI-verktyg. Det ger inte heller någon garanti eller ansvar för tjänstens säkerhet.

Användning

Du kan publicera Kapwing-innehåll kommersiellt, men Kapwing råder användare att vara försiktiga. Deras villkor säger inte om användare måste deklarera att utdata från Kapwing är AI-genererad.

Otter.ai uppger att det inte tillåter upphovsrättsintrång i sina tjänster, men det är svårt att verifiera detta påstående. Användare behåller äganderätten och upphovsrätten till indata och inlägg i Otter.ai, men Otter.ai säger användarna är ansvariga för inte mata in tidigare upphovsrättsskyddat innehåll. Otter.ai kan också använda indata för maskininlärning.

Noggrannhet och tillförlitlighet

Otter.ai utesluter sig från ansvar angående noggrannhet och tillförlitlighet, så användare bör alltid verifiera innehållet. Att använda sakligt vilseledande eller felaktig information kan orsaka juridiska problem eller anseende för användaren. 

Säkerhet och sekretess

All risk att avslöja konfidentiell information på Otter.ai tillhör användaren. 

Användning

Användare kan publicera med kommersiella avsikter eftersom användarna är ägare till innehåll från Otter.ai. Som sagt, AI-genererat innehåll har inga tydliga äganderegler. Otter.ai uppger också dess transkriberade anteckningar kan sökas och delas.

PhotoRoom kan ta användarinmatningar och utdata för modellutbildning, men det finns begränsad information om huruvida tjänsten gör det eller inte. PhotoRoom-villkoren påminner användare om att undvika att mata in upphovsrättsskyddat innehåll. Användarna bär allt ansvar för detta. 

Noggrannhet och tillförlitlighet

Fotorum tar inget ansvar för noggrannheten eller tillförlitligheten av dess AI-genererade innehåll. Användare bör köra sina egna kontroller för att verifiera detta.

Säkerhet och sekretess

PhotoRoom använder ingångar för att träna sina modeller. Användare är ansvariga när de lägger in konfidentiell information or Personlig information. Tjänsten försöker filtrera dessa typer av indata men hävdar inget krav på att göra det. Användare bär allt ansvar för säkerhetsfrågor. 

Användning

PhotoRoom-innehåll kan användas för kommersiella ändamål, men vissa villkor kan gälla, som att registrera dig för en prenumeration. Villkoren säger att du inte behöver markera innehåll som AI-genererat. Användare kan se andra konsekvenser om de bryter mot rättigheter eller lagar. 

Villkor

Denna information är endast avsedd för allmän information och bör inte ses som juridisk rådgivning. E-handelsplattformar tar inget ansvar för fel eller utelämnanden. Konsultera en lämplig jurist för råd och vägledning skräddarsydd för dina specifika behov och omständigheter.

Slutsats

Allmänheten av AI gör det allt mer sannolikt för oss alla att använda verktyg och appar baserade på denna teknik – men många av oss har inte lyxen av den tid som behövs för att läsa deras villkor. 

Under 2017, professionella tjänster nätverk Deloitte hittade det 91% av konsumenterna "accepterar gärna juridiska villkor utan att läsa dem" — stigande till 97 % mellan 18 och 34 år.

Med tanke på hur många AI T&C:er vi betygsatt med låga läsbarhetspoäng, verkar det som ogenomträngligheten i dessa dokuments juridiska karaktär avskräcker användare från att ens försöka förstå dem. 

Vi samarbetade med en jurist för att analysera dokumenten åt oss, men det är tveksamt om detta borde vara nödvändigt.

Vi hoppas att den här forskningen – inklusive dess läsbarhetsvärderingar och Josilda Ndreajs expertis om villkor och villkor att vara uppmärksam på – kommer att hjälpa dig att välja vilka AI-appar och verktyg du ska engagera dig i. 

Metodik och källor

Hur vi genomförde forskningen

Med en startlista med cirka 90 AI-verktyg och appar samlade vi först varje verktygs juridiska dokumentation, från villkor och integritetspolicyer. Vi registrerade sedan ordlängden på dessa dokument och beräknade deras läsbarhetspoäng med hjälp av Flesch-Kincaids betygssystem. Därefter tog vi hjälp av en juridisk expert, Josilda Ndreaj (LLM), som granskade ett urval av dessa juridiska dokument och identifierade nyckelpunkter som användare borde vara medvetna om.

För cirka 30 av AI-verktygen som har mobilappversioner tillgängliga, sökte vi var och en på Apple App Store och registrerade deras sekretessetiketter som visas på deras listor. Dessa är indelade i 14 kategorier av data som kan samlas in från användare, och för vilket ändamål. För att beräkna vilka AI-appar som samlade in mest data, mätte vi hur många av de 14 möjliga kategorierna dessa appar spårade sina användare över. 

Det är viktigt att notera att dessa 14 kategorier är uppdelade ytterligare i individuella datapunkter. Till exempel inkluderar 'Kontaktinfo' fem datapunkter, som är; 'Namn', 'E-postadress', 'Telefonnummer', 'Fysisk adress' och 'Annan användarkontaktinformation'. För att ta reda på vilka appar som samlar in flest individuella datapunkter, ta en titt på den sista kolumnen i var och en av tabellerna.

Vissa appar samlar in fler individuella datapunkter än de som visas högre upp i rankningen. Detta beror på att vår rankningsmetod tar hänsyn till vilka appar som samlar in data i de flesta kategorierna totalt sett, vilket föreslår en bredare och därför mer "fullständig" bild av användardata snarare än djupet av information de samlar in i varje kategori. 

Källor

Begäran om rättelse

Vi uppdaterar regelbundet denna forskning.

Om du är ägare till något av AI-verktygen som ingår i denna forskning och du vill ifrågasätta informationen på den här sidan, är vi villiga att uppdatera den under förutsättning att vi granskar bevisen du tillhandahåller. När vi kontaktar oss i detta avseende ber vi vänligen om: 

  • affärsdokument som verifierar din legitimitet (till exempel registreringsbevis eller registreringsdokument) 
  • informationen på denna sida som du tror är föråldrad (var vänlig)
  • hur den ska uppdateras och varför, med länkar till dokumentation som backar upp detta (till exempel ändringar av användarvillkoren)

Vänligen kontakta oss på [e-postskyddad] med ämnesraden: "Korrigeringsbegäran: AI-verktygsstudie", plus namnet på AI-verktyget du kontaktar oss angående.

Bogdan Rancea

Bogdan Rancea är en av grundarna av Ecommerce-Platforms.com och huvudkurator för ecomm.design, en uppvisning av de bästa e-handelswebbplatserna. Med över 12 år i det digitala handelsområdet har han en mängd kunskap och ett skarpt öga för fantastiska onlinehandelsupplevelser. Som e-handelsutforskare testar och granskar Bogdan olika plattformar och designverktyg som Shopify, Figma och Canva och ger praktiska råd till butiksägare och designers.