Kunstig intelligens har raskt blitt en del av den moderne tidsånden - men etiske betraktninger rundt emnet forblir uløste. Hvor mange brukere er fullt klar over hva de registrerer seg for?
Her, ved å finpusse vilkårene og personvernreglene bak de mest populære AI-verktøyene og appene, pakker Ecommerce Platforms ut det du trenger å vite når du bruker disse verktøyene for dine daglige forretningsbehov.
Vi har analysert dataene og den personlige informasjonen disse verktøyene samler inn (og til hvilket formål) for å hjelpe deg med å finne ut hvilke AI verktøy, programvare og plattformer er best egnet for den tiltenkte bruken. Vi konsulterte også en juridisk ekspert for å bryte ned sjargongen bak disse verktøyenes vilkår og betingelser.
Når du bruker en AI-app, samtykker du til at (minst noen av) dataene dine samles inn av den
Vi analyserte Apple App Store-personvernetikettene for rundt 30 tilgjengelige mobilappversjoner av populære AI-verktøy for å forstå hvilke som samler inn dataene dine, og hvorfor.
Dataene som samles inn fra brukere (og deres formål) er delt inn i 14 kategorier, noe som gjør det mulig å fastslå hvilke apper som samler inn og sporer mest brukerdata.
For ytterligere detaljer, ta en titt på metodedelen på slutten av denne siden.
Hvilke data samler disse AI-appene inn?
AI-verktøyene som er vurdert i denne forskningen samler inn data av ulike typer. Noen av disse fokuserer på personlige opplysninger om brukere – fra skjermnavn og bankdetaljer, til deres helse og fitness, og til og med sensitiv informasjon som rase/etnisitet, seksuell legning, kjønnsidentitet og politiske meninger.
Andre forholder seg til innhold laget av brukere (som e-poster og meldinger, bilder, videoer og lydopptak), eller hvordan brukere samhandler med selve produktet, som søkehistorikken deres i appen eller hvilke annonser de har sett. Mer upersonlig er diagnoseinformasjonen som samles inn for å vise krasjdata eller energibruk.
Hvorfor samler disse AI-appene inn data?
Det finnes forskjellige grunner til at apper samler inn data,noen av dem kan sees på som mer forsvarlige enn andre — for eksempel kan biometri eller kontaktinformasjon brukes til å autentisere brukerens identitet.
Tilsvarende kan tilgang til visse data være nødvendig for at en app skal fungere korrekt, inkludert for å forhindre svindel eller forbedre skalerbarhet og ytelse.
Mer spesifikt trenger meldingsapper tilgang til kontakter, telefonkameraer og mikrofoner for å tillate anrop, mens geolokalisering er nødvendig for taxi- eller leveringsapper.
Uten tvil mindre viktige grunner til å samle inn data inkluderer annonsering eller markedsføring av apputvikleren (for eksempel for å sende markedskommunikasjon til brukerne dine); aktivere tredjepartsannonsering (ved å spore data fra andre apper for å rette målrettede annonser mot brukeren, for eksempel); og analysere brukeratferd for formål inkludert å vurdere effektiviteten til eksisterende funksjoner eller planlegge nye.
Hei mobilbruker 👋 Tabellene nedenfor kan være rullet horisontalt for å se alle dataene, men denne siden ser definitivt bedre ut Desktop.
AI-apper som samler inn dataene dine for å dele med tredjepartsannonsører
Kolonneoverskrifter med knapper kan sorteres.
AI-app
% data delt med andre
Browsing History
Kontaktinfo
Identifikatorer
Vårt kontor:
Andre data
Kjøp
Søkelogg
Brukerdata
Antall datapunkter som er samlet inn
Lerret
36%
2
2
1
1
2
8
Duolingo
36%
2
1
1
1
2
7
Google Assistant
21%
1
1
1
3
Bing
14%
1
1
2
Pixai
14%
1
1
2
wombo
14%
1
1
2
ChatGPT
7%
1
1
Genie AI
7%
1
1
Linse
7%
1
1
Tale
7%
1
1
starryai
7%
1
1
Av alle AI-appene som er inkludert i vår forskning, Canva, et grafisk designverktøy, samler inn mest data fra brukerne for tredjeparts reklameformål – rundt 36 prosent. Derimot samler de fem appene som samler inn minst data til dette formålet litt over 7 %.
Dataene som Canvas app samler inn fra deg og deler med tredjeparter inkluderer søkehistorikk, plassering, e-postadresse og annen informasjon vist i tabellen ovenfor.
Den gamified språkopplæringsappen følger Canva tett Duolingo (~36%), Google Assistant (~21%), og Microsofts Bing (~14%) - alt dette også dele dine data med tredjeparter.
Av de fem appene som samler inn minst data, er det kun starryai (en bildegenerator) begrenser seg til kun å dele bruksdata.
AI-apper som samler inn dataene dine til egen fordel
Kolonneoverskrifter med knapper kan sorteres.
Applikasjon
% data samlet inn til appens egen fordel
Browsing History
Kontaktinfo
Identifikatorer
Vårt kontor:
Kjøp
Søkelogg
Brukerdata
Antall datapunkter som er samlet inn
Lerret
43%
2
2
1
1
1
2
9
Facetune
36%
2
4
2
2
4
14
Amazon Alexa
36%
4
2
1
1
2
10
Google Assistant
36%
1
2
2
1
2
8
Fotorom
29%
1
1
1
1
4
Duolingo
21%
2
1
1
4
starryai
14%
2
1
3
Bing
14%
1
1
2
Linse
14%
1
1
2
Otter
7%
2
2
deg
7%
1
1
Poe
7%
1
1
Pixai
7%
1
1
Tale
7%
1
1
wombo
7%
1
1
Canva topper også diagrammet for AI-apper som samler inn brukerdata for sine egne reklame- eller markedsføringsformål. For å gjøre det, samler Canva inn rundt 43 % av brukernes data.
På tredje plass, Amazon Alexa samler inn 36 % av dine data til samme formål. Dette inkluderer din e-postadresse, fysiske adresse, telefonnummer, søkehistorikk og kjøpshistorikk, pluss fem andre datapunkter. Google Assistant samler inn og deler den samme prosentandelen av data av denne grunn, men på tvers av åtte individuelle datapunkter, sammenlignet med de ti som Amazon Alexa samler inn.
De tekst-til-tale stemmegenerator, Speechify, er blant appene som samler inn minst data. I henhold til Apple App Store-oppføringens personvernetiketter, samler Speechify bare ett datapunkt til sin egen fordel; enhets-IDen din.
AI-apper som samler inn dataene dine til ethvert formål
Kolonneoverskrifter med knapper kan sorteres.
Applikasjon
% data samlet inn
Browsing History
Kontaktinfo
Kontakter
Diagnostikk
Økonomisk informasjon
Helse & Velvære
Identifikatorer
Vårt kontor:
Andre data
Kjøp
Søkelogg
Sensitiv info
Brukerdata
brukerinnhold
Antall datapunkter som er samlet inn
Amazon Alexa
93%
24
4
9
3
4
10
8
4
5
5
4
13
23
116
Google Assistant
86%
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79%
10
1
7
1
12
4
4
6
1
7
7
60
Lerret
64%
11
3
1
8
5
4
5
10
6
53
Otter
57%
7
3
5
7
2
3
2
11
40
Poe
57%
2
2
3
6
2
3
2
5
25
Facetune
50%
6
8
18
8
8
14
2
64
Bing
50%
1
2
6
3
3
2
3
20
DeepSeek
50%
2
3
4
1
1
2
3
16
Memes
43%
6
4
6
6
6
4
32
ELSA Snakk
43%
2
6
6
3
3
3
23
Fotorom
43%
2
1
9
3
4
1
20
Trint
43%
1
2
1
4
1
2
11
ChatGPT
36%
4
8
5
7
2
26
Forvirringene til AI
36%
6
6
2
1
6
21
1 / 2
Alle AI-modeller krever en eller annen form for opplæring gjennom maskinlæring - noe som betyr det de trenger data.
Hvis vi vil at AI-verktøy skal forbedres og bli mer nyttige, kan personvernet vårt sees på som en nødvendig avveining mot å oppgi disse dataene.
Men spørsmålet om hvor grensen mellom nytte og utnyttelse bør tegnes, og hvorfor, er en tornet en.
Gitt dens nåværende beryktethet, er det verdt å ta opp DeepSeek. Oppføringen på Apple App Store sier at DeepSeek ikke samler inn brukerdata for egen fordel (for eksempel DeepSeeks egen markedsføring og reklame) eller for å dele med tredjeparter.
De DeepSeek-appen samler selv inn 50 % av brukernes data, som betjener DeepSeeks analyse- og appfunksjonalitet. Til sammenligning ChatGPT-appen samler inn 36 %.
Noen medier rapporterer bekymringer om sikkerhetsrisikoer knyttet til DeepSeeks kinesiske opprinnelse (både når det gjelder datainnsamling og mulig spredning av feilinformasjon) og underbudet til amerikanske rivaler. Begge vil neppe bli lindret av DeepSeeks vilkår og betingelser og retningslinjer for personvern, som ville ta rundt 35 minutter å lese, og er rangert som "veldig vanskelig" på Flesch-Kincaid lesbarhetsskala.
Uansett hvordan dataene dine brukes, Amazon Alexa samler inn mer av brukernes data enn noen annen AI-app inkludert i denne forskningen. Totalt sett samler det 93% av dataene dine (eller 116 individuelle beregninger, primært kontaktinformasjon, brukerinnhold og bruksdata).
Google Assistant kommer neste, samler 86%, Etterfulgt av Duolingo, som samler inn 79%.
I den andre enden av skalaen, AI-bildegenerator, Stable Diffusion, samler ingen data. Det er i henhold til personvernetikettene på Apple App Store-oppføringen.
Mens det er sant at alle generativ AI modeller krever enorme mengder data for å bli trent, denne opplæringen skjer før utviklingen av spesifikke apper. I de fleste tilfeller eier ikke app-skapere AI-modellene de bruker; brukerdatainnsamling er derfor knyttet til funksjonaliteten til selve appen. Dette kan forklare hvorfor noen av appene vi har undersøkt ikke har informasjon i tabellen ovenfor.
Naviger i vilkårene og betingelsene bak AI-verktøy
La oss nå se på juridisk dokumentasjon bak ulike AI-verktøy for å finne ut hvor lett eller vanskelig de er å lese. Dette er basert på Flesch-Kincaid lese-karakternivå-test.
Dette systemet sidestiller tekster med amerikanske skolelesenivåer (fra femte til 12. klasse), deretter College, College Graduate og Professional. Tekster på sjette klassetrinn er definert som «samtaleengelsk for forbrukere», mens tekster med profesjonelt karakter beskrives som «ekstremt vanskelig å lese».
Jo lavere lesbarhetspoeng, desto vanskeligere er teksten å lese.
Talende nok, "å få nok søvn" - avgjørende for fysisk og mental helse og kognitiv funksjon - rangerer på tredjeplass, etter "å jobbe lange timer" og "sortere ut selvangivelser".
En tredjedel av de spurte mente at det ikke var mulig å administrere hele arbeidstiden, og sa de trengte fire ekstra timer om dagen for å komme gjennom det hele.
Dette gir en følelse av hvor straffende det kan være å drive en SMB, og at tid som trengs for å lese vilkårene bak verktøyene de er avhengige av er ikke lett å komme til.
I denne sammenhengen er 40-minutters lesetidene til T&Cs for transkribering av verktøy som Otter, Trint og Descript svært viktig.
Og det er forutsatt at det er mulig å forstå de mest vanskelig å lese vilkår og betingelser. Dette er grunnen til at vi søkte ekspertisen til en juridisk ekspert.
Vi ba en juridisk ekspert på kunstig intelligens og teknologi om å lese dem og forklare viktige punkter du trenger å vite
Josilda Ndreaj, en juridisk profesjonell og lisensiert advokat, har navigert i komplekse juridiske saker på vegne av Fortune 500-kunder og gitt råd til ulike selskaper.
Senere har hun som uavhengig konsulent fokusert på immaterialrett i skjæringspunktet mellom blokkjedeteknologi og kunstig intelligens.
Josilda Ndreaj (LLM) er en juridisk profesjonell og lisensiert advokat med ekspertise innen immaterielle rettigheter (IP).
Karrieren hennes som juridisk konsulent begynte i et prestisjetungt internasjonalt advokatfirma, som serverte Fortune 500-klienter. Her navigerte Josilda i komplekse juridiske saker og ga råd til forskjellige selskaper.
Drevet av interesser innen innovasjon, kreativitet og fremvoksende teknologier, våget Josilda seg deretter inn i uavhengig konsulentvirksomhet og fokuserte på immaterielle rettigheter, ved å dekke skjæringspunktet med blokkjedeteknologi og kunstig intelligens.
Josilda har to Master of Law-grader; den ene spesialiserer seg på sivil- og handelsrett fra Tirana University, og den andre med fokus på immaterialrett, fra Zhongnan University of Economics and Law.
Som sådan var Josilda unikt posisjonert til å gjennomgå et utvalg av disse AI-verktøyenes juridiske dokumenter, og trekker frem nøkkelpunkter til fordel for de av oss som ikke har to Master of Laws-grader.
Hennes sammendrag er skissert nedenfor:
Plagiat og brudd på opphavsrett
Gemini (tidligere Bard) har ingen forpliktelse til å oppgi kilder til trening, så vi kan ikke sjekke om den er trent på opphavsrettsbeskyttet materiale. Gemini er ikke ekskludert fra ansvar for slike brudd; hvis en opphavsrettseier anklager, har Gemini et visst ansvar. Men det er viktig å merke seg at Gemini er opplært på hva brukeren gir den. For dette, Gemini krever lisens fra brukeren. Hvis brukeren godtar å gi den lisensen til Gemini, men de (brukeren) faktisk ikke eier opphavsretten, flyttes ansvaret til brukeren.
Brukere beholder eierskapet til sine innspill og forespørsler, men produksjonseierskap er mer komplekst. Gemini gjør ikke dette klart i sine vilkår. Mange lover anerkjenner ikke immaterielle rettigheter til maskiner. Det er imidlertid tvilsomt å hevde at utdataene er "menneskeskapt", selv om brukeren eier inndataene.
Bedriftseiere bør aldri publisere et resultat fra Gemini uten å kryssreferanser, gjennomgå for oppdateringer og sjekke med eksperter for nøyaktighet. Ellers risikerer de å publisere villedende informasjon, som kan ha omdømmemessige eller juridiske konsekvenser.
Sikkerhet og konfidensialitet
Google (eieren av Gemini) gir ingen informasjon i sin personvernerklæring om hvordan den håndterer konfidensielle data.
bruk
Google oppgir ingenting i tjenestevilkårene om innhold generert av Gemini kan brukes til kommersielle formål. Det forklarer restriksjoner for ting som immaterielle rettigheter men ingenting spesifikt for AI-generert innhold.
Plagiat og brudd på opphavsrett
Foreløpig krever ingen lovgivning at ChatGPT offentlig erklærer hva modellen er trent på. Så fordi den ikke avslører kildene sine, kan vi ikke vite om ChatGPT leverer eller behandler innhold som er beskyttet av lover om opphavsrett. Hvis noen identifiserer opphavsrettsbeskyttet innhold fra ChatGPT, de kan komme med et krav for å fjerne det innholdet.
Brukere bør bekrefte all informasjon fra ChatGPT. Det er fordi ChatGPT har ikke noe ansvar for å gi nøyaktige opplysninger, oppdatert innhold. I henhold til seksjonen for ansvarsfraskrivelse, brukeren påtar seg alle risikoer for nøyaktighet, kvalitet, pålitelighet, sikkerhet og fullstendighet. Verifiser derfor alltid fakta fra ChatGPT; kryssreferanser, se etter oppdateringer og sjekk med eksperter for nøyaktighet også. Bedriftseiere kan møte juridiske eller omdømmemessige konsekvenser hvis de ikke bekrefter ChatGPT-innhold for nøyaktighet før publisering.
Sikkerhet og konfidensialitet
ChatGPT samler inn informasjon fra innganger – inkludert personlig informasjon – å potensielt trene modellene sine (i henhold til personvernreglene). Brukeren kan velge bort. Situasjonen endres hvis data sendes inn via API-tilkoblinger (ChatGPT Enterprise, Team, etc); det er fordi ChatGPT bruker ikke inndata fra bedriftskunder å trene modeller. ChatGPT har sikkerhetstiltak på plass, men tar ikke eksplisitt opp ansvaret for et sikkerhetsbrudd. Alt avhenger av regionale lover.
bruk
ChatGPT-brukere eier deres input og output innhold; brukerne må derfor sørge for at innholdet ikke bryter noen lover. Brukere kan ikke hevde at innholdet er menneskeskapt, men du trenger ikke si at den er AI-generert heller. Så lenge brukerne følger regionale lover og vilkårene for bruk, kan ChatGPT-innhold brukes til kommersielle formål, på sosiale medier, for betalt annonsering og andre kanaler. Det anbefales at du faktasjekker, gjør referanser og følger lover før du publiserer innhold fra ChatGPT.
Plagiat og brudd på opphavsrett
Verken personvernreglene eller vilkårene spesifiserer om DeepSeeks AI-verktøy har blitt opplært på opphavsrettsbeskyttet materiale. Dessuten gir de heller ingen garantier for at utdataene ikke vil krenke noens opphavsrett. DeepSeeks brukervilkår sier det brukere beholder rettighetene til sine input (forespørsler), men dette betyr ikke nødvendigvis at de er opphavsrettsbeskyttet i utgangspunktet, så brukere bør ta skritt for å sikre at det de bruker som forespørsler ikke er andres immaterielle rettigheter.
DeepSeeks personvernpolicy forklarer at brukerinndata behandles for å generere utdata, men også til forbedre DeepSeeks tjeneste. Dette inkluderer «trene og forbedre teknologien deres». Brukere bør derfor være forsiktige med å legge inn sensitiv informasjon, og selv om DeepSeek har 'kommersielt rimelig' tiltak på plass for å beskytte dataene og informasjonen som brukes som input, gir det ingen absolutte garantier. DeepSeeks vilkår sier at de ikke publiserer input eller utdata i offentlige fora, men noen kan deles med tredjeparter.
bruk
Alt innhold som brukere genererer gjennom DeepSeek kan brukes til kommersielle formål, men på grunn av gråsoner rundt plagiering og nøyaktighet, bør brukere ta skritt for å verifisere innholdet før de bruker det på denne måten. DeepSeeks vilkår for bruk refererer ikke til noen begrensninger angående hvor i verden brukere kan publisere dette innholdet, men de sier tydelig at brukere må erklære det som AI-generert "for å varsle publikum om innholdets syntetiske natur".
Plagiat og brudd på opphavsrett
Canva er ikke lovpålagt å avsløre sine kilder for treningsdata. Derfor vet vi ikke om opphavsrettsbeskyttet materiale blir brukt. Brukeren eier alt input og output innhold (ikke Canva), men Canva kan bruke det innholdet til å forbedre tjenestene sine.
I likhet med ChatGPT, oppgir ikke DALL-E kilder for modellopplæringen. Hvis du derimot finner opphavsrettsbeskyttet innhold, vil du kan fremme krav om fjerning. Det er vanskelig å sjekke om DALL-E krenker en opphavsrett siden ingen lovgivning krever at DALL-E avslører datakildene. Brukerinndata, i henhold til vilkårene, kan brukes til å trene DALL-E sin modell – selv om det er opphavsrettsbeskyttet innhold. Brukeren kan velge bort dette.
Personvernreglene og vilkårene og betingelsene fra DALL-E tar aldri eksplisitt opp ansvar i tilfelle et sikkerhetsbrudd. DALL-E har imidlertid sikkerhetstiltak på plass. Hvem som bærer ansvaret ved et hack avhenger av regionale lover.
Du kan bruke DALL-E til kommersielle formål, så lenge du følger alle lover og DALL-E-vilkårene. Regelverket kan endres, men i skrivende stund er brukere velkommen til å publisere DALL-E-innhold på sosiale medier, i annonser og på andre kanaler. Brukere bør alltid gjøre riktige referanser og faktasjekke nøyaktighet for å unngå brudd på lover.
Plagiat og brudd på opphavsrett
Bing har ingen forpliktelse til å dele dataopplæringskildene sine, noe som gjør det svært vanskelig å finne ut om Bing AI utilsiktet bruker opphavsrettsbeskyttet innhold. Selv om det er vanskelig å identifisere, kan brukere gjøre krav på opphavsrettsbeskyttet innhold. Microsofts tjenesteavtale sier at Bing AI tar brukerinndata og -utganger for å forbedre modellen, men det er ingenting formelt på plass for å forhindre tyveri av intellektuell eiendom.
Microsoft gjør ikke krav på eierskap til brukerinnhold, men det regulerer ikke spesifikt AI-generert innhold, der eierskap er usikkert. Tjenesteavtalen lar folk bruke innhold til kommersielle formål, med noen betydelige betingelser: du må akseptere at AI-generert innhold mangler menneskelig kreativitet, så det kan ikke hevdes som åndsverk; du må heller ikke krenke andres immaterielle rettigheter. Kort sagt, du kan ikke bruke åndsverk fra andre, men det du lager med Bing er sannsynligvis ikke din egen åndsrett.
Plagiat og brudd på opphavsrett
Quillbot har ingen forpliktelse til å avsløre kilder den bruker for å trene modeller. Imidlertid prøver selskapet interessant nok å regulere en unik situasjon: hva om kilden til modelltrening er AI-resultatet? Quillbot prøver i hovedsak å minimere potensialet for opphavsrettsbeskyttet utdata, men sier at det fortsatt er en sjanse for at utdata er opphavsrettsbeskyttet hvis brukere legger inn opphavsrettsbeskyttet innhold. For å gjøre ting mer forvirrende, prøver Quillbot å dekke alle områder ved å si at brukerne gir Quillbot en ubegrenset, underlisensierbar lisens, samtidig som de hevder at brukerne eier alle utdataene deres.
Quillbot har tiltak for å beskytte brukernes personvern, men det kan fortsatt ende opp med å behandle personopplysninger. Det er spesielle beskyttelser for barns personvern. Ansvaret for tap av data fra et hack håndteres fra sak til sak. Quillbot sier at brukeren bør ta skritt for å forhindre at deres personlige data blir hacket, og at Quillbot har databeskyttelseselementer på plass.
bruk
Quillbot-brukere kan publisere generert innhold for kommersielle formål, men du må kanskje følge noen regler, som å ikke publisere skadelig eller villedende innhold. Quillbot sin Betingelser ikke si at du trenger å erklære at innholdet er AI-generert. Kort sagt brukeren kan publisere innhold generert av Quillbot så lenge det ikke bryter med noen lover eller rettigheter.
Plagiat og brudd på opphavsrett
Pixlr avslører ikke kildene for AI-modellopplæring, siden det ikke er noen juridisk forpliktelse for dem å gjøre det. Dens vilkår sier at brukeren eier innholdet, men brukerne også gi en lisens til Pixlr for å bruke innholdet. Dette er et forsøk på å minimere bruken av opphavsrettsbeskyttet innhold.
Brukere kan publisere AI-generert innhold laget gjennom Pixlr for kommersielle formål (selv om noen betingelser gjelder). Vilkårene krever ikke at du oppgir at noe er AI-generert. Brukere er fortsatt ansvarlige for brudd på rettigheter eller lover.
Midjourney trener modellen sin med brukerinnspill, selv om den inkluderer personlige eller konfidensielle data. Midjourney hevder at brukeren bør være forsiktig med sensitive data, så det er ikke deres problem. Selskapet prøver å filtrere ut viss informasjon for modellopplæring, men det er ikke nødvendig. Midjourney påtar seg intet ansvar for sikkerhetsproblemer som kan oppstå fra en brukers handlinger.
bruk
Midjourney-brukere kan publisere generert innhold for kommersielle formål. Noen forhold, som kravet om å abonnere på Pro-versjonen hvis selskapet tjener mer enn 1 million dollar per år, søke. I skrivende stund trenger ikke brukere å hevde at noe er AI-generert fra Midjourney, selv om lovgivning er i gang for å endre dette. Brukere kan generelt bruke ethvert Modjourney-innhold hvis det ikke bryter med noen rettigheter eller lover.
Clipchamp og Microsoft styrer unna å regulere AI-generert innhold, aldri påstå at Microsoft eier innholdet. Teknisk sett sier Microsoft at brukeren eier den, men uten immaterielle rettigheter. Brukeren kan publisere Clipchamp-innhold for kommersielle formål med to betingelser: du kan ikke krenke immaterielle rettigheter, eller hevde at du har immaterielle rettigheter for generert innhold.
Plagiat og brudd på opphavsrett
The Looka Betingelser oppgi at selskapet ikke har noen forpliktelser til å dele dataopplæringskilder, så det gjør de ikke. Brukere bærer all risiko ved bruk av Looka-generert innhold.
Nøyaktighet og pålitelighet
Looka påtar seg intet ansvar for nøyaktigheten og påliteligheten til utdataene fra AI-verktøyene. Brukere bør bekrefte alle fakta og se etter pålitelighet.
Sikkerhet og konfidensialitet
Looka bruker inndata – til og med potensielt personlige og konfidensielle data – for å trene modellen sin, så brukeren er ansvarlig for ikke å bruke denne typen data i sin inndata. Looka prøver å filtrere slike data, men de hevder at de ikke trenger det. I tillegg er alle sikkerhetsproblemer brukerens byrde.
bruk
Looka-brukere kan bruke AI-generert innhold til kommersielle formål, men de må kanskje følge betingelser eller betale et gebyr. Brukere trenger ikke å merke sitt genererte innhold som AI-generert. Brukere bør unngå å publisere generert innhold som bryter med rettigheter eller lover.
Plagiat og brudd på opphavsrett
Det er ikke mulig å si om Speechify trener sin modell på opphavsrettsbeskyttet materiale. Vi vet rett og slett ikke. Speechifys vilkår anbefaler at du ikke bruker opphavsrettsbeskyttet materiale for input, noe som tyder på at noen utdata kan ha opphavsrettsbeskyttet data. Speechify hevder å ikke bære noe ansvar for dette.
Nøyaktighet og pålitelighet
Speechify, ifølge sin Betingelser, tar ikke noe ansvar for nøyaktigheten til utdataene. Brukere bør alltid sjekke aktualitet, pålitelighet og nøyaktighet med Speechify.
Kapwing-brukere tar på seg alle risikoer når de velger å legge inn konfidensiell informasjon i AI-verktøyet. Den gir heller ingen garanti eller ansvar for sikkerheten til tjenesten.
bruk
Du kan publisere Kapwing-innhold kommersielt, men Kapwing råder brukere til å være forsiktige. Vilkårene deres sier ikke om brukere må erklære at utdata fra Kapwing er AI-generert.
Otter.ai utelukker seg selv fra ansvar angående nøyaktighet og pålitelighet, så brukere bør alltid verifisere innhold. Bruk av faktisk villedende eller uriktig informasjon kan forårsake juridiske eller omdømmeproblemer for brukeren.
PhotoRoom kan ta brukerinndata og utdata for modellopplæring, men det er begrenset informasjon om hvorvidt tjenesten gjør det eller ikke. PhotoRoom-vilkårene minner brukere om å unngå å mate inn opphavsrettsbeskyttet innhold. Brukere bærer alt ansvar for dette.
PhotoRoom innhold kan brukes til kommersielle formål, men noen betingelser kan gjelde, for eksempel å registrere deg for et abonnement. Vilkårene sier at du ikke trenger å merke innhold som AI-generert. Brukere kan se andre konsekvenser hvis de bryter rettigheter eller lover.
Ansvarsfraskrivelse
Denne informasjonen er kun til generell informasjon og bør ikke oppfattes som juridisk rådgivning. E-handelsplattformer påtar seg intet ansvar for feil eller utelatelser. Rådfør deg med en passende advokat for råd og veiledning skreddersydd for dine spesifikke behov og omstendigheter.
Konklusjon
Utbredelsen av AI gjør det stadig mer sannsynlig for oss alle å bruke verktøy og apper basert på denne teknologien – men mange av oss har ikke den luksusen som trengs for å lese deres vilkår og betingelser.
Gitt hvor mange AI T&C-er vi vurderte med lav lesbarhetsscore, ser det ut til at ugjennomtrengeligheten til disse dokumentenes juridiske uttrykk avsetter brukere fra å prøve å forstå dem.
Vi samarbeidet med en advokat for å analysere dokumentene for oss, men det spørs om dette burde være nødvendig.
Vi håper at denne forskningen – inkludert lesbarhetsvurderingene, og Josilda Ndreajs ekspertise på vilkårene og betingelsene du bør være oppmerksom på – vil hjelpe deg med å velge hvilke AI-apper og verktøy du bør engasjere deg i.
Metodikk og kilder
Hvordan vi utførte forskningen
Vi startet med en startliste med rundt 90 AI-verktøy og apper, og vi samlet først hvert verktøys juridiske dokumentasjon, fra vilkår og betingelser til personvernregler. Vi registrerte deretter ordlengdene til disse dokumentene, og beregnet deres lesbarhetspoeng ved hjelp av Flesch-Kincaids karaktersystem. Deretter fikk vi hjelp av en juridisk ekspert, Josilda Ndreaj (LLM), som gjennomgikk et utvalg av disse juridiske dokumentene og identifiserte nøkkelpunkter som brukere bør være klar over.
For rundt 30 av AI-verktøyene som har tilgjengelige mobilappversjoner, søkte vi hvert av dem på Apple App Store og registrerte personvernetikettene som ble vist på oppføringene deres. Disse er delt inn i 14 kategorier av data som kan samles inn fra brukere, og til hvilket formål. For å beregne hvilke AI-apper som samlet inn mest data, målte vi hvor mange av de 14 mulige kategoriene disse appene sporet brukerne sine på tvers av.
Det er viktig å merke seg at disse 14 kategoriene er delt videre inn i individuelle datapunkter. For eksempel inkluderer 'Kontaktinfo' fem datapunkter, som er; 'Navn', 'E-postadresse', 'Telefonnummer', 'Fysisk adresse' og 'Annen brukerkontaktinformasjon'. For å finne ut hvilke apper som samler inn flest individuelle datapunkter, ta en titt på den siste kolonnen i hver av tabellene.
Noen apper vil samle flere individuelle datapunkter enn de som vises høyere i rangeringen. Dette er fordi vår rangeringsmetodikk vurderer hvilke apper som samler inn data på tvers av de fleste kategoriene totalt sett, noe som antyder et bredere og derfor mer "fullstendig" bilde av brukerdata, i stedet for dybden av informasjon de samler inn i hver kategori.
Kilder
Apple App Store sider for hver app, nøyaktig fra februar 2025.
Ulike dokumentasjon for hver AI-app (inkludert vilkår og betingelser og retningslinjer for personvern) som ble åpnet og gjennomgått av Josilda Ndreaj i februar 2024, bortsett fra DeepSeek, som ble åpnet og gjennomgått i januar 2025.
Flesch-Kincaid Lesbarhetskalkulator.
Skraper for ordtelling.
Ulike oppsummeringer for å informere den første frølisten over AI-apper og -verktøy, inkludert:
Vi oppdaterer denne forskningen med jevne mellomrom.
Hvis du er eier av noen av AI-verktøyene som er inkludert i denne forskningen og du ønsker å utfordre informasjonen på denne siden, er vi villige til å oppdatere den med forbehold om vår gjennomgang av bevisene du gir. Når vi kontakter oss i denne forbindelse ber vi om:
forretningsdokumenter som bekrefter legitimiteten din (for eksempel inkorporasjonssertifikat eller registreringsdokumenter)
informasjonen på denne siden du mener er utdatert (vær spesifikk)
hvordan den bør oppdateres og hvorfor, med lenker til dokumentasjon som støtter dette (for eksempel endringer i vilkårene for bruk)
Ta kontakt med oss på [e-postbeskyttet] med emnelinjen: 'Korreksjonsforespørsel: AI-verktøystudie', pluss navnet på AI-verktøyet du kontakter oss angående.
Bogdan Rancea er medgründer av Ecommerce-Platforms.com og hovedkurator for ecomm.design, et utstillingsvindu for de beste e-handelsnettstedene. Med over 12 år i det digitale handelsområdet har han et vell av kunnskap og et godt øye for gode netthandelsopplevelser. Som e-handelsutforsker tester og vurderer Bogdan ulike plattformer og designverktøy som Shopify, Figma og Canva og gir praktiske råd til butikkeiere og designere.
Denne nettsiden bruker informasjonskapsler, kun for viktig funksjonalitet og analyser som beskrevet i vår Informasjonskapsel.