Bak det som står med liten skrift: Forstå AI-apper og personvern

Hvis du abonnerer på en tjeneste fra en lenke på denne siden, kan Reeves and Sons Limited tjene en provisjon. Se vår etisk uttalelse.

Kunstig intelligens har raskt blitt en del av den moderne tidsånden - men etiske betraktninger rundt emnet forblir uløste. Hvor mange brukere er fullt klar over hva de registrerer seg for?

Her, ved å finpusse vilkårene og personvernreglene bak de mest populære AI-verktøyene og appene, pakker Ecommerce Platforms ut det du trenger å vite når du bruker disse verktøyene for dine daglige forretningsbehov.

Vi har analysert dataene og den personlige informasjonen disse verktøyene samler inn (og til hvilket formål) for å hjelpe deg med å finne ut hvilke AI verktøy, programvare og plattformer er best egnet for den tiltenkte bruken. Vi konsulterte også en juridisk ekspert for å bryte ned sjargongen bak disse verktøyenes vilkår og betingelser.

Vi analyserte Apple App Store-personvernetikettene for rundt 30 tilgjengelige mobilappversjoner av populære AI-verktøy for å forstå hvilke som samler inn dataene dine, og hvorfor. 

Dataene som samles inn fra brukere (og deres formål) er delt inn i 14 kategorier, noe som gjør det mulig å fastslå hvilke apper som samler inn og sporer mest brukerdata.

For ytterligere detaljer, ta en titt på metodedelen på slutten av denne siden.

Hvilke data samler disse AI-appene inn?

AI-verktøyene som er vurdert i denne forskningen samler inn data av ulike typer. Noen av disse fokuserer på personlige opplysninger om brukere – fra skjermnavn og bankdetaljer, til deres helse og fitness, og til og med sensitiv informasjon som rase/etnisitet, seksuell legning, kjønnsidentitet og politiske meninger. 

Andre forholder seg til innhold laget av brukere (som e-poster og meldinger, bilder, videoer og lydopptak), eller hvordan brukere samhandler med selve produktet, som søkehistorikken deres i appen eller hvilke annonser de har sett. Mer upersonlig er diagnoseinformasjonen som samles inn for å vise krasjdata eller energibruk.

Hvorfor samler disse AI-appene inn data?

Det finnes forskjellige grunner til at apper samler inn data, noen av dem kan sees på som mer forsvarlige enn andre — for eksempel kan biometri eller kontaktinformasjon brukes til å autentisere brukerens identitet.

Tilsvarende kan tilgang til visse data være nødvendig for at en app skal fungere korrekt, inkludert for å forhindre svindel eller forbedre skalerbarhet og ytelse.

Mer spesifikt trenger meldingsapper tilgang til kontakter, telefonkameraer og mikrofoner for å tillate anrop, mens geolokalisering er nødvendig for taxi- eller leveringsapper.

Uten tvil mindre viktige grunner til å samle inn data inkluderer annonsering eller markedsføring av apputvikleren (for eksempel for å sende markedskommunikasjon til brukerne dine); aktivere tredjepartsannonsering (ved å spore data fra andre apper for å rette målrettede annonser mot brukeren, for eksempel); og analysere brukeratferd for formål inkludert å vurdere effektiviteten til eksisterende funksjoner eller planlegge nye.

Hei mobilbruker 👋 Tabellene nedenfor kan være rullet horisontalt for å se alle dataene, men denne siden ser definitivt bedre ut Desktop.

AI-apper som samler inn dataene dine for å dele med tredjepartsannonsører

Kolonneoverskrifter med knapper kan sorteres.
AI-app % data delt med andre Browsing History Kontaktinfo Identifikatorer Vårt kontor: Andre data Kjøp Søkelogg Brukerdata Antall datapunkter som er samlet inn
Lerret 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
wombo 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Linse 7% 1 1
Tale 7% 1 1
starryai 7% 1 1

Av alle AI-appene som er inkludert i vår forskning, Canva, et grafisk designverktøy, samler inn mest data fra brukerne for tredjeparts reklameformål – rundt 36 prosent. Derimot samler de fem appene som samler inn minst data til dette formålet litt over 7 %.

Dataene som Canvas app samler inn fra deg og deler med tredjeparter inkluderer søkehistorikk, plassering, e-postadresse og annen informasjon vist i tabellen ovenfor. 

Den gamified språkopplæringsappen følger Canva tett Duolingo (~36%), Google Assistant (~21%), og Microsofts Bing (~14%) - alt dette også dele dine data med tredjeparter

Av de fem appene som samler inn minst data, er det kun starryai (en bildegenerator) begrenser seg til kun å dele bruksdata.

AI-apper som samler inn dataene dine til egen fordel

Kolonneoverskrifter med knapper kan sorteres.
Applikasjon % data samlet inn til appens egen fordel Browsing History Kontaktinfo Identifikatorer Vårt kontor: Kjøp Søkelogg Brukerdata Antall datapunkter som er samlet inn
Lerret 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
Fotorom 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
Bing 14% 1 1 2
Linse 14% 1 1 2
Otter 7% 2 2
deg 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Tale 7% 1 1
wombo 7% 1 1

Canva topper også diagrammet for AI-apper som samler inn brukerdata for sine egne reklame- eller markedsføringsformål. For å gjøre det, samler Canva inn rundt 43 % av brukernes data.

På tredje plass, Amazon Alexa samler inn 36 % av dine data til samme formål. Dette inkluderer din e-postadresse, fysiske adresse, telefonnummer, søkehistorikk og kjøpshistorikk, pluss fem andre datapunkter. Google Assistant samler inn og deler den samme prosentandelen av data av denne grunn, men på tvers av åtte individuelle datapunkter, sammenlignet med de ti som Amazon Alexa samler inn.

De tekst-til-tale stemmegenerator, Speechify, er blant appene som samler inn minst data. I henhold til Apple App Store-oppføringens personvernetiketter, samler Speechify bare ett datapunkt til sin egen fordel; enhets-IDen din.

AI-apper som samler inn dataene dine til ethvert formål

Kolonneoverskrifter med knapper kan sorteres.
Applikasjon % data samlet inn Browsing History Kontaktinfo Kontakter Diagnostikk Økonomisk informasjon Helse & Velvære Identifikatorer Vårt kontor: Andre data Kjøp Søkelogg Sensitiv info Brukerdata brukerinnhold Antall datapunkter som er samlet inn
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Lerret 64% 11 3 1 8 5 4 5 10 6 53
Otter 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Memes 43% 6 4 6 6 6 4 32
ELSA Snakk 43% 2 6 6 3 3 3 23
Fotorom 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Forvirringene til AI 36% 6 6 2 1 6 21
1 / 2

Alle AI-modeller krever en eller annen form for opplæring gjennom maskinlæring - noe som betyr det de trenger data.

Hvis vi vil at AI-verktøy skal forbedres og bli mer nyttige, kan personvernet vårt sees på som en nødvendig avveining mot å oppgi disse dataene.

Men spørsmålet om hvor grensen mellom nytte og utnyttelse bør tegnes, og hvorfor, er en tornet en.

Gitt dens nåværende beryktethet, er det verdt å ta opp DeepSeek. Oppføringen på Apple App Store sier at DeepSeek ikke samler inn brukerdata for egen fordel (for eksempel DeepSeeks egen markedsføring og reklame) eller for å dele med tredjeparter.

Men det er verdt å påpeke det deres Personvernerklæringen sier noe annet (mer om dette senere). 

De DeepSeek-appen samler selv inn 50 % av brukernes data, som betjener DeepSeeks analyse- og appfunksjonalitet. Til sammenligning ChatGPT-appen samler inn 36 %.

Noen medier rapporterer bekymringer om sikkerhetsrisikoer knyttet til DeepSeeks kinesiske opprinnelse (både når det gjelder datainnsamling og mulig spredning av feilinformasjon) og underbudet til amerikanske rivaler. Begge vil neppe bli lindret av DeepSeeks vilkår og betingelser og retningslinjer for personvern, som ville ta rundt 35 minutter å lese, og er rangert som "veldig vanskelig" på Flesch-Kincaid lesbarhetsskala.

Uansett hvordan dataene dine brukes, Amazon Alexa samler inn mer av brukernes data enn noen annen AI-app inkludert i denne forskningen. Totalt sett samler det 93% av dataene dine (eller 116 individuelle beregninger, primært kontaktinformasjon, brukerinnhold og bruksdata).

Google Assistant kommer neste, samler 86%, Etterfulgt av Duolingo, som samler inn 79%.

I den andre enden av skalaen, AI-bildegenerator, Stable Diffusion, samler ingen data. Det er i henhold til personvernetikettene på Apple App Store-oppføringen.

Mens det er sant at alle generativ AI modeller krever enorme mengder data for å bli trent, denne opplæringen skjer før utviklingen av spesifikke apper. I de fleste tilfeller eier ikke app-skapere AI-modellene de bruker; brukerdatainnsamling er derfor knyttet til funksjonaliteten til selve appen. Dette kan forklare hvorfor noen av appene vi har undersøkt ikke har informasjon i tabellen ovenfor.

Naviger i vilkårene og betingelsene bak AI-verktøy

La oss nå se på juridisk dokumentasjon bak ulike AI-verktøy for å finne ut hvor lett eller vanskelig de er å lese. Dette er basert på Flesch-Kincaid lese-karakternivå-test.

Dette systemet sidestiller tekster med amerikanske skolelesenivåer (fra femte til 12. klasse), deretter College, College Graduate og Professional. Tekster på sjette klassetrinn er definert som «samtaleengelsk for forbrukere», mens tekster med profesjonelt karakter beskrives som «ekstremt vanskelig å lese».

Jo lavere lesbarhetspoeng, desto vanskeligere er teksten å lese.

Kolonneoverskrifter med knapper kan sorteres.
Clipchamp 3 timer 16 minutter 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 timer 20 minutter 35.4 🤯🤯🤯🤯🤯
veed.io 2 timer 15 minutter 37.9 🤯🤯🤯🤯🤯
Facetune 2 timer 4 minutter 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 timer 47 minutter 31.4 🤯🤯🤯🤯🤯🤯
Otter 1 timer 11 minutter 32.4 🤯🤯🤯🤯🤯🤯
Jaspis 1 timer 9 minutter 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
gamma 1 timer 6 minutter 30.9 🤯🤯🤯🤯🤯🤯
Tale 1 timer 6 minutter 35.0 🤯🤯🤯🤯🤯🤯
Rullebane 1 timer 2 minutter 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

I 2023, det britiske forsikringsselskapet Superscript spurte eierne av 500 små og mellomstore bedrifter (SMB) for å finne ut hva som bruker mest tid.

Talende nok, "å få nok søvn" - avgjørende for fysisk og mental helse og kognitiv funksjon - rangerer på tredjeplass, etter "å jobbe lange timer" og "sortere ut selvangivelser".

En tredjedel av de spurte mente at det ikke var mulig å administrere hele arbeidstiden, og sa de trengte fire ekstra timer om dagen for å komme gjennom det hele.

Dette gir en følelse av hvor straffende det kan være å drive en SMB, og at tid som trengs for å lese vilkårene bak verktøyene de er avhengige av er ikke lett å komme til.

I denne sammenhengen er 40-minutters lesetidene til T&Cs for transkribering av verktøy som Otter, Trint og Descript svært viktig. 

Og det er forutsatt at det er mulig å forstå de mest vanskelig å lese vilkår og betingelser. Dette er grunnen til at vi søkte ekspertisen til en juridisk ekspert.

Josilda Ndreaj, en juridisk profesjonell og lisensiert advokat, har navigert i komplekse juridiske saker på vegne av Fortune 500-kunder og gitt råd til ulike selskaper.

Senere har hun som uavhengig konsulent fokusert på immaterialrett i skjæringspunktet mellom blokkjedeteknologi og kunstig intelligens.

Josilda Ndreaj (LLM) er en juridisk profesjonell og lisensiert advokat med ekspertise innen immaterielle rettigheter (IP).

Karrieren hennes som juridisk konsulent begynte i et prestisjetungt internasjonalt advokatfirma, som serverte Fortune 500-klienter. Her navigerte Josilda i komplekse juridiske saker og ga råd til forskjellige selskaper.

Drevet av interesser innen innovasjon, kreativitet og fremvoksende teknologier, våget Josilda seg deretter inn i uavhengig konsulentvirksomhet og fokuserte på immaterielle rettigheter, ved å dekke skjæringspunktet med blokkjedeteknologi og kunstig intelligens.

Josilda har to Master of Law-grader; den ene spesialiserer seg på sivil- og handelsrett fra Tirana University, og den andre med fokus på immaterialrett, fra Zhongnan University of Economics and Law.

Som sådan var Josilda unikt posisjonert til å gjennomgå et utvalg av disse AI-verktøyenes juridiske dokumenter, og trekker frem nøkkelpunkter til fordel for de av oss som ikke har to Master of Laws-grader.

Hennes sammendrag er skissert nedenfor:

Gemini (tidligere Bard) har ingen forpliktelse til å oppgi kilder til trening, så vi kan ikke sjekke om den er trent på opphavsrettsbeskyttet materiale. Gemini er ikke ekskludert fra ansvar for slike brudd; hvis en opphavsrettseier anklager, har Gemini et visst ansvar. Men det er viktig å merke seg at Gemini er opplært på hva brukeren gir den. For dette, Gemini krever lisens fra brukeren. Hvis brukeren godtar å gi den lisensen til Gemini, men de (brukeren) faktisk ikke eier opphavsretten, flyttes ansvaret til brukeren.

Brukere beholder eierskapet til sine innspill og forespørsler, men produksjonseierskap er mer komplekst. Gemini gjør ikke dette klart i sine vilkår. Mange lover anerkjenner ikke immaterielle rettigheter til maskiner. Det er imidlertid tvilsomt å hevde at utdataene er "menneskeskapt", selv om brukeren eier inndataene.

Nøyaktighet og pålitelighet

Bruk alltid skjønn når du stoler på Gemini for nøyaktig informasjon. Dens Vilkår for bruk sier at nøyaktighet ikke skal antas automatisk av brukeren. Derfor bør du faktasjekke alt innhold generert fra Gemini. 

Bedriftseiere bør aldri publisere et resultat fra Gemini uten å kryssreferanser, gjennomgå for oppdateringer og sjekke med eksperter for nøyaktighet. Ellers risikerer de å publisere villedende informasjon, som kan ha omdømmemessige eller juridiske konsekvenser.

Sikkerhet og konfidensialitet

Google (eieren av Gemini) gir ingen informasjon i sin personvernerklæring om hvordan den håndterer konfidensielle data.

bruk

Google oppgir ingenting i tjenestevilkårene om innhold generert av Gemini kan brukes til kommersielle formål. Det forklarer restriksjoner for ting som immaterielle rettigheter men ingenting spesifikt for AI-generert innhold.

Foreløpig krever ingen lovgivning at ChatGPT offentlig erklærer hva modellen er trent på. Så fordi den ikke avslører kildene sine, kan vi ikke vite om ChatGPT leverer eller behandler innhold som er beskyttet av lover om opphavsrett. Hvis noen identifiserer opphavsrettsbeskyttet innhold fra ChatGPT, de kan komme med et krav for å fjerne det innholdet.

ChatGPTs vilkår sier at brukerinndata, selv om det er opphavsrettsbeskyttet, brukes til å forbedre tjenesten og trene modellen; og brukeren kan ikke velge bort dette. ChatGPTs vilkår sier at en bruker eier alt input- og output-innhold (hvis inndatainnholdet allerede er lovlig brukt), men det garanterer ikke at brukeren eier opphavsretten til det inn- og utdatainnholdet. I tillegg brukere kan ikke utgi noe fra ChatGPT som "menneske-generert".

Nøyaktighet og pålitelighet

Brukere bør bekrefte all informasjon fra ChatGPT. Det er fordi ChatGPT har ikke noe ansvar for å gi nøyaktige opplysninger, oppdatert innhold. I henhold til seksjonen for ansvarsfraskrivelse, brukeren påtar seg alle risikoer for nøyaktighet, kvalitet, pålitelighet, sikkerhet og fullstendighet. Verifiser derfor alltid fakta fra ChatGPT; kryssreferanser, se etter oppdateringer og sjekk med eksperter for nøyaktighet også. Bedriftseiere kan møte juridiske eller omdømmemessige konsekvenser hvis de ikke bekrefter ChatGPT-innhold for nøyaktighet før publisering. 

Sikkerhet og konfidensialitet

ChatGPT samler inn informasjon fra innganger – inkludert personlig informasjon – å potensielt trene modellene sine (i henhold til personvernreglene). Brukeren kan velge bort. Situasjonen endres hvis data sendes inn via API-tilkoblinger (ChatGPT Enterprise, Team, etc); det er fordi ChatGPT bruker ikke inndata fra bedriftskunder å trene modeller. ChatGPT har sikkerhetstiltak på plass, men tar ikke eksplisitt opp ansvaret for et sikkerhetsbrudd. Alt avhenger av regionale lover. 

bruk

ChatGPT-brukere eier deres input og output innhold; brukerne må derfor sørge for at innholdet ikke bryter noen lover. Brukere kan ikke hevde at innholdet er menneskeskapt, men du trenger ikke si at den er AI-generert heller. Så lenge brukerne følger regionale lover og vilkårene for bruk, kan ChatGPT-innhold brukes til kommersielle formål, på sosiale medier, for betalt annonsering og andre kanaler. Det anbefales at du faktasjekker, gjør referanser og følger lover før du publiserer innhold fra ChatGPT. 

Verken personvernreglene eller vilkårene spesifiserer om DeepSeeks AI-verktøy har blitt opplært på opphavsrettsbeskyttet materiale. Dessuten gir de heller ingen garantier for at utdataene ikke vil krenke noens opphavsrett. DeepSeeks brukervilkår sier det brukere beholder rettighetene til sine input (forespørsler), men dette betyr ikke nødvendigvis at de er opphavsrettsbeskyttet i utgangspunktet, så brukere bør ta skritt for å sikre at det de bruker som forespørsler ikke er andres immaterielle rettigheter.

Vilkårene sier også eksplisitt at brukeren er ansvarlig for alle innganger og tilsvarende utganger, så med det i tankene bør brukere uavhengig verifisere disse ved å søke juridisk råd og/eller bruke opphavsrettsdatabaser. For eksempel US Copyright Office Offentlig katalog lar brukere søke etter registrerte verk i USA, mens Googles omvendt bildesøk hjelper deg å sjekke om et bilde tidligere har blitt publisert eller opphavsrettsbeskyttet.

Nøyaktighet og pålitelighet

DeepSeeks brukervilkår sier at utdata er AI-generert, og derfor kan inneholde feil og/eller utelatelser. Den refererer spesifikt til medisinske, juridiske og økonomiske spørsmål som brukere kan spørre DeepSeek om, og hvordan DeepSeek sine utdata ikke utgjør råd. Men mer generelt, det sier det samme om "faglige spørsmål", som kan være omtrent alt - fra markedsføring og forskning til teknologi og utdanning og utover - og at utdata ikkerepresentere meningene til noen fagfelt.' Brukere bør derfor uavhengig verifisere alle DeepSeeks utdata for nøyaktighet.

Sikkerhet og konfidensialitet

DeepSeeks personvernpolicy forklarer at brukerinndata behandles for å generere utdata, men også til forbedre DeepSeeks tjeneste. Dette inkluderer «trene og forbedre teknologien deres». Brukere bør derfor være forsiktige med å legge inn sensitiv informasjon, og selv om DeepSeek har 'kommersielt rimelig' tiltak på plass for å beskytte dataene og informasjonen som brukes som input, gir det ingen absolutte garantier. DeepSeeks vilkår sier at de ikke publiserer input eller utdata i offentlige fora, men noen kan deles med tredjeparter.

bruk

Alt innhold som brukere genererer gjennom DeepSeek kan brukes til kommersielle formål, men på grunn av gråsoner rundt plagiering og nøyaktighet, bør brukere ta skritt for å verifisere innholdet før de bruker det på denne måten. DeepSeeks vilkår for bruk refererer ikke til noen begrensninger angående hvor i verden brukere kan publisere dette innholdet, men de sier tydelig at brukere må erklære det som AI-generert "for å varsle publikum om innholdets syntetiske natur".

Canva er ikke lovpålagt å avsløre sine kilder for treningsdata. Derfor vet vi ikke om opphavsrettsbeskyttet materiale blir brukt. Brukeren eier alt input og output innhold (ikke Canva), men Canva kan bruke det innholdet til å forbedre tjenestene sine. 

Nøyaktighet og pålitelighet

Canva bjørner intet ansvar for innholdets nøyaktighet. Brukeren bør alltid verifisere fakta. 

Sikkerhet og konfidensialitet

Lerret bruker input-innhold for å trene modellen sin. Det er brukerens ansvar for å unngå å bruke konfidensiell eller personlig informasjon for input. Canva prøver å filtrere slike innganger for modelltrening, men det er ingen garantier. Canvas AI-verktøy er ikke ansvarlig for sikkerhetsproblemer forårsaket av brukeren.

bruk

Canva-brukere kan bruke generert innhold for kommersielle formål. Det finnes forhold, men liker å ikke publisere villedende innhold. Selskapet har en liste over forbudte ting, under en seksjon med tittelen «Vær et godt menneske».

I likhet med ChatGPT, oppgir ikke DALL-E kilder for modellopplæringen. Hvis du derimot finner opphavsrettsbeskyttet innhold, vil du kan fremme krav om fjerning. Det er vanskelig å sjekke om DALL-E krenker en opphavsrett siden ingen lovgivning krever at DALL-E avslører datakildene. Brukerinndata, i henhold til vilkårene, kan brukes til å trene DALL-E sin modell – selv om det er opphavsrettsbeskyttet innhold. Brukeren kan velge bort dette.  

DALL-E brukernes egne input og output innhold (ikke DALL-E), men det betyr ikke at brukeren har opphavsrett til nevnte innhold. Også brukere kan ikke påstå at DALL-E-innhold er menneskeskapt.

Nøyaktighet og pålitelighet

DALL-E bjørner intet ansvar for unøyaktig innhold. Dens vilkår overfører alt ansvar til brukeren. Disse forpliktelsene inkluderer innholdspålitelighet, nøyaktighet, kvalitet, sikkerhet og fullstendighet. Så før publisering, brukere bør alltid kryssreferanser, se etter oppdateringer, bekrefte fakta og sjekke med eksperter, siden publisering av falsk informasjon kan føre til omdømmemessige eller juridiske konsekvenser. 

Sikkerhet og konfidensialitet

Personvernreglene og vilkårene og betingelsene fra DALL-E tar aldri eksplisitt opp ansvar i tilfelle et sikkerhetsbrudd. DALL-E har imidlertid sikkerhetstiltak på plass. Hvem som bærer ansvaret ved et hack avhenger av regionale lover.

DALL-E samler inn en brukers input for modelltrening, til og med personlig informasjon, men du kan velge bort dette. Med API-en håndterer DALL-E imidlertid inputdata annerledes; den bruker ikke data fra forretningsbrukere for å trene modellene sine

bruk

De brukeren eier DALL-E input og output innhold; de må også sørge for at innholdet ikke bryter noen lover eller DALL-E-vilkårene. Du kan ikke kreve at innhold fra DALL-E er menneskeskapt, men du trenger heller ikke si at den er AI-generert. 

Du kan bruke DALL-E til kommersielle formål, så lenge du følger alle lover og DALL-E-vilkårene. Regelverket kan endres, men i skrivende stund er brukere velkommen til å publisere DALL-E-innhold på sosiale medier, i annonser og på andre kanaler. Brukere bør alltid gjøre riktige referanser og faktasjekke nøyaktighet for å unngå brudd på lover.

Bing har ingen forpliktelse til å dele dataopplæringskildene sine, noe som gjør det svært vanskelig å finne ut om Bing AI utilsiktet bruker opphavsrettsbeskyttet innhold. Selv om det er vanskelig å identifisere, kan brukere gjøre krav på opphavsrettsbeskyttet innhold. Microsofts tjenesteavtale sier at Bing AI tar brukerinndata og -utganger for å forbedre modellen, men det er ingenting formelt på plass for å forhindre tyveri av intellektuell eiendom.

De Tjenesteavtalen sier at brukere gir Microsoft en verdensomspennende og royaltyfri åndsverkslisens for å bruke innholdet ditt. Videre Bing/Microsoft tar brukerinnspill for å trene AI-modeller.

Nøyaktighet og pålitelighet

Microsoft tilbyr ingen garantier for nøyaktigheten eller aktualiteten til innholdet fra sine AI-tjenester. Derfor bør du faktasjekke alt fra Microsofts AI-verktøy, spesielt hvis du er en bedriftseier som ønsker å unngå omdømmemessige og juridiske konsekvenser. 

Sikkerhet og konfidensialitet

Microsofts AI-verktøy (inkludert Bing AI) bruke personlige og konfidensielle brukerdata for å trene modellene sine. Tjenesteavtalen dekker ikke AI-generert innhold; i stedet prøver den å flytte alt ansvar for AI-innhold til brukeren. Microsoft påtar seg heller ikke noe ansvar for kundenes personvern- og sikkerhetspraksis. Kort sagt, hvis dataene dine blir brutt mens du bruker Bing AI, er det ditt problem, ikke Microsofts.  

bruk

Microsoft gjør ikke krav på eierskap til brukerinnhold, men det regulerer ikke spesifikt AI-generert innhold, der eierskap er usikkert. Tjenesteavtalen lar folk bruke innhold til kommersielle formål, med noen betydelige betingelser: du må akseptere at AI-generert innhold mangler menneskelig kreativitet, så det kan ikke hevdes som åndsverk; du må heller ikke krenke andres immaterielle rettigheter. Kort sagt, du kan ikke bruke åndsverk fra andre, men det du lager med Bing er sannsynligvis ikke din egen åndsrett.

Quillbot har ingen forpliktelse til å avsløre kilder den bruker for å trene modeller. Imidlertid prøver selskapet interessant nok å regulere en unik situasjon: hva om kilden til modelltrening er AI-resultatet? Quillbot prøver i hovedsak å minimere potensialet for opphavsrettsbeskyttet utdata, men sier at det fortsatt er en sjanse for at utdata er opphavsrettsbeskyttet hvis brukere legger inn opphavsrettsbeskyttet innhold. For å gjøre ting mer forvirrende, prøver Quillbot å dekke alle områder ved å si at brukerne gir Quillbot en ubegrenset, underlisensierbar lisens, samtidig som de hevder at brukerne eier alle utdataene deres. 

Nøyaktighet og pålitelighet

Quillbot bjørner intet ansvar for nøyaktighet eller pålitelighet. Brukere bør være svært forsiktige og verifisere alle fakta fra Quillbot. 

Sikkerhet og konfidensialitet

Quillbot har tiltak for å beskytte brukernes personvern, men det kan fortsatt ende opp med å behandle personopplysninger. Det er spesielle beskyttelser for barns personvern. Ansvaret for tap av data fra et hack håndteres fra sak til sak. Quillbot sier at brukeren bør ta skritt for å forhindre at deres personlige data blir hacket, og at Quillbot har databeskyttelseselementer på plass. 

bruk

Quillbot-brukere kan publisere generert innhold for kommersielle formål, men du må kanskje følge noen regler, som å ikke publisere skadelig eller villedende innhold. Quillbot sin Betingelser ikke si at du trenger å erklære at innholdet er AI-generert. Kort sagt brukeren kan publisere innhold generert av Quillbot så lenge det ikke bryter med noen lover eller rettigheter. 

Pixlr avslører ikke kildene for AI-modellopplæring, siden det ikke er noen juridisk forpliktelse for dem å gjøre det. Dens vilkår sier at brukeren eier innholdet, men brukerne også gi en lisens til Pixlr for å bruke innholdet. Dette er et forsøk på å minimere bruken av opphavsrettsbeskyttet innhold. 

Nøyaktighet og pålitelighet

Pixlr tar ikke ansvar for unøyaktigheter i sitt AI-genererte innhold. Brukere bør være forsiktige med å faktasjekke alt fra Pixlr. 

Sikkerhet og konfidensialitet

Pixlr tar brukerinndata for opplæring av AI-modeller. Det overfører byrden til brukeren å være forsiktig med å skrive inn personlig eller konfidensiell informasjon. Pixlr fraskriver seg sitt ansvar for å filtrere noe informasjon fra treningsdataene sine, selv om de bruker noen filtre for å blokkere personlig eller konfidensiell informasjon. hevder Pixlr intet ansvar for sikkerhetsproblemer forårsaket av brukernes handlinger

bruk

Brukere kan publisere AI-generert innhold laget gjennom Pixlr for kommersielle formål (selv om noen betingelser gjelder). Vilkårene krever ikke at du oppgir at noe er AI-generert. Brukere er fortsatt ansvarlige for brudd på rettigheter eller lover. 

midt på reisen brukere gir selskapet rettigheter til alle eiendeler laget gjennom det, men brukeren eier også alle eiendelene. Det finnes unntak, som hvordan du ikke kan kreve eierskap hvis du har nettopp oppskalert et bilde fra en original skaper.

Nøyaktighet og pålitelighet

Midjourney har intet ansvar for påliteligheten og nøyaktigheten av innholdet. Brukere bør derfor være ekstra forsiktige for å verifisere fakta og kontrollere påliteligheten. 

Sikkerhet og konfidensialitet

Midjourney trener modellen sin med brukerinnspill, selv om den inkluderer personlige eller konfidensielle data. Midjourney hevder at brukeren bør være forsiktig med sensitive data, så det er ikke deres problem. Selskapet prøver å filtrere ut viss informasjon for modellopplæring, men det er ikke nødvendig. Midjourney påtar seg intet ansvar for sikkerhetsproblemer som kan oppstå fra en brukers handlinger. 

bruk

Midjourney-brukere kan publisere generert innhold for kommersielle formål. Noen forhold, som kravet om å abonnere på Pro-versjonen hvis selskapet tjener mer enn 1 million dollar per år, søke. I skrivende stund trenger ikke brukere å hevde at noe er AI-generert fra Midjourney, selv om lovgivning er i gang for å endre dette. Brukere kan generelt bruke ethvert Modjourney-innhold hvis det ikke bryter med noen rettigheter eller lover. 

Clipchamp er et Microsoft-produkt, så det krever ingen forpliktelse til å dele datakilder for modellopplæring. Derfor er det vanskelig å si om AI-verktøyet utilsiktet bruker opphavsrettsbeskyttet data. Noen må identifisere bruddet på opphavsretten for å fremsette et krav, noe som er usannsynlig. Microsofts tjenesteavtale sier den kan bruke brukerinndata og -utganger til å forbedre tjenestene, og Microsoft regulerer ikke spørsmål om åndsverk. Også, brukere gir en verdensomspennende, royaltyfri åndsverklisens til Microsoft

Nøyaktighet og pålitelighet

Clipchamp og Microsoft garantere ingenting når det gjelder nøyaktigheten eller aktualiteten til AI-verktøyene, så brukere bør bekrefte alle fakta før publisering. Dette gjelder spesielt for bedriftseiere som kan møte juridiske og omdømmemessige konsekvenser. 

Sikkerhet og konfidensialitet

Clipchamp og Microsoft bruke personlige og konfidensielle data til modelltrening. Microsoft prøver å flytte ansvaret for alle innholdsproblemer til brukeren. Det samme gjelder for hacking og sikkerhetsbrudd; det er brukerens ansvar hvis noe skjer. 

bruk

Clipchamp og Microsoft styrer unna å regulere AI-generert innhold, aldri påstå at Microsoft eier innholdet. Teknisk sett sier Microsoft at brukeren eier den, men uten immaterielle rettigheter. Brukeren kan publisere Clipchamp-innhold for kommersielle formål med to betingelser: du kan ikke krenke immaterielle rettigheter, eller hevde at du har immaterielle rettigheter for generert innhold. 

The Looka Betingelser oppgi at selskapet ikke har noen forpliktelser til å dele dataopplæringskilder, så det gjør de ikke. Brukere bærer all risiko ved bruk av Looka-generert innhold. 

Nøyaktighet og pålitelighet

Looka påtar seg intet ansvar for nøyaktigheten og påliteligheten til utdataene fra AI-verktøyene. Brukere bør bekrefte alle fakta og se etter pålitelighet. 

Sikkerhet og konfidensialitet

Looka bruker inndata – til og med potensielt personlige og konfidensielle data – for å trene modellen sin, så brukeren er ansvarlig for ikke å bruke denne typen data i sin inndata. Looka prøver å filtrere slike data, men de hevder at de ikke trenger det. I tillegg er alle sikkerhetsproblemer brukerens byrde. 

bruk

Looka-brukere kan bruke AI-generert innhold til kommersielle formål, men de må kanskje følge betingelser eller betale et gebyr. Brukere trenger ikke å merke sitt genererte innhold som AI-generert. Brukere bør unngå å publisere generert innhold som bryter med rettigheter eller lover. 

Det er ikke mulig å si om Speechify trener sin modell på opphavsrettsbeskyttet materiale. Vi vet rett og slett ikke. Speechifys vilkår anbefaler at du ikke bruker opphavsrettsbeskyttet materiale for input, noe som tyder på at noen utdata kan ha opphavsrettsbeskyttet data. Speechify hevder å ikke bære noe ansvar for dette

Nøyaktighet og pålitelighet

Speechify, ifølge sin Betingelser, tar ikke noe ansvar for nøyaktigheten til utdataene. Brukere bør alltid sjekke aktualitet, pålitelighet og nøyaktighet med Speechify. 

Sikkerhet og konfidensialitet

Tale overfører alt ansvar til brukeren når det kommer til å legge inn sensitive eller personlige data. Verktøyet bruker input for å trene modeller, så brukere bør være forsiktige. Speechify trenger ikke nødvendigvis å filtrere sensitive eller personlige data, men det prøver det med noen filtre. Alt ansvar for sikkerhetsproblemer overføres til brukeren. 

bruk

Speechify-brukere kan bruke utganger for kommersielle formål, med noen betingelser som å måtte abonnere eller få lisensiering. Brukere trenger ikke å erklære at Speechify-innhold er AI-generert. Speechify-brukere bør imidlertid aldri bryte rettigheter eller lover når de publiserer Speechify-utdata. 

Kapwingen Vilkårene legger all intellektuell eiendom og nøyaktighetsansvar på brukeren. Alle brukere gir Kapwing en ikke-eksklusiv lisens, men brukerne beholder eierskapet til innholdet. Kapwing avslører ingenting om hvorvidt den bruker inputdata til modelltrening. 

Nøyaktighet og pålitelighet

Kapwing legger alt nøyaktighetsansvar på brukeren, spesielt eventuelle juridiske og omdømmemessige konsekvenser.

Sikkerhet og konfidensialitet

Kapwing-brukere tar på seg alle risikoer når de velger å legge inn konfidensiell informasjon i AI-verktøyet. Den gir heller ingen garanti eller ansvar for sikkerheten til tjenesten.

bruk

Du kan publisere Kapwing-innhold kommersielt, men Kapwing råder brukere til å være forsiktige. Vilkårene deres sier ikke om brukere må erklære at utdata fra Kapwing er AI-generert.

Otter.ai sier at det ikke tillater opphavsrettskrenkende materiale i sine tjenester, men det er vanskelig å bekrefte dette kravet. Brukere beholder eierskap og opphavsrett til input og poster i Otter.ai, men Otter.ai sier brukerne er ansvarlige forum ikke legge inn tidligere opphavsrettsbeskyttet innhold. Otter.ai kan også bruke input for maskinlæring.

Nøyaktighet og pålitelighet

Otter.ai utelukker seg selv fra ansvar angående nøyaktighet og pålitelighet, så brukere bør alltid verifisere innhold. Bruk av faktisk villedende eller uriktig informasjon kan forårsake juridiske eller omdømmeproblemer for brukeren. 

Sikkerhet og konfidensialitet

All risiko for å avsløre konfidensiell informasjon på Otter.ai tilhører brukeren. 

bruk

Brukere kan publisere med kommersiell hensikt siden brukerne er eiere av innhold fra Otter.ai. Når det er sagt, har AI-generert innhold ikke klare eierskapsregler. Otter.ai opplyser også dets transkriberte notater kan søkes i og deles.

PhotoRoom kan ta brukerinndata og utdata for modellopplæring, men det er begrenset informasjon om hvorvidt tjenesten gjør det eller ikke. PhotoRoom-vilkårene minner brukere om å unngå å mate inn opphavsrettsbeskyttet innhold. Brukere bærer alt ansvar for dette. 

Nøyaktighet og pålitelighet

Fotorom påtar seg intet ansvar for nøyaktigheten eller påliteligheten til det AI-genererte innholdet. Brukere bør kjøre sine egne kontroller for å bekrefte dette.

Sikkerhet og konfidensialitet

PhotoRoom bruker innganger for å trene modellene sine. Brukere er ansvarlige når de legger inn konfidensiell informasjon or Personlig informasjon. Tjenesten prøver å filtrere denne typen innganger, men hevder ingen krav om å gjøre det. Brukere bærer alt ansvar for sikkerhetsproblemer. 

bruk

PhotoRoom innhold kan brukes til kommersielle formål, men noen betingelser kan gjelde, for eksempel å registrere deg for et abonnement. Vilkårene sier at du ikke trenger å merke innhold som AI-generert. Brukere kan se andre konsekvenser hvis de bryter rettigheter eller lover. 

Ansvarsfraskrivelse

Denne informasjonen er kun til generell informasjon og bør ikke oppfattes som juridisk rådgivning. E-handelsplattformer påtar seg intet ansvar for feil eller utelatelser. Rådfør deg med en passende advokat for råd og veiledning skreddersydd for dine spesifikke behov og omstendigheter.

Konklusjon

Utbredelsen av AI gjør det stadig mer sannsynlig for oss alle å bruke verktøy og apper basert på denne teknologien – men mange av oss har ikke den luksusen som trengs for å lese deres vilkår og betingelser. 

I 2017, profesjonelle tjenester nettverk Deloitte fant det 91% av forbrukerne "godtar villig juridiske vilkår og betingelser uten å lese dem" – økende til 97 % mellom 18 og 34 år.

Gitt hvor mange AI T&C-er vi vurderte med lav lesbarhetsscore, ser det ut til at ugjennomtrengeligheten til disse dokumentenes juridiske uttrykk avsetter brukere fra å prøve å forstå dem. 

Vi samarbeidet med en advokat for å analysere dokumentene for oss, men det spørs om dette burde være nødvendig.

Vi håper at denne forskningen – inkludert lesbarhetsvurderingene, og Josilda Ndreajs ekspertise på vilkårene og betingelsene du bør være oppmerksom på – vil hjelpe deg med å velge hvilke AI-apper og verktøy du bør engasjere deg i. 

Metodikk og kilder

Hvordan vi utførte forskningen

Vi startet med en startliste med rundt 90 AI-verktøy og apper, og vi samlet først hvert verktøys juridiske dokumentasjon, fra vilkår og betingelser til personvernregler. Vi registrerte deretter ordlengdene til disse dokumentene, og beregnet deres lesbarhetspoeng ved hjelp av Flesch-Kincaids karaktersystem. Deretter fikk vi hjelp av en juridisk ekspert, Josilda Ndreaj (LLM), som gjennomgikk et utvalg av disse juridiske dokumentene og identifiserte nøkkelpunkter som brukere bør være klar over.

For rundt 30 av AI-verktøyene som har tilgjengelige mobilappversjoner, søkte vi hvert av dem på Apple App Store og registrerte personvernetikettene som ble vist på oppføringene deres. Disse er delt inn i 14 kategorier av data som kan samles inn fra brukere, og til hvilket formål. For å beregne hvilke AI-apper som samlet inn mest data, målte vi hvor mange av de 14 mulige kategoriene disse appene sporet brukerne sine på tvers av. 

Det er viktig å merke seg at disse 14 kategoriene er delt videre inn i individuelle datapunkter. For eksempel inkluderer 'Kontaktinfo' fem datapunkter, som er; 'Navn', 'E-postadresse', 'Telefonnummer', 'Fysisk adresse' og 'Annen brukerkontaktinformasjon'. For å finne ut hvilke apper som samler inn flest individuelle datapunkter, ta en titt på den siste kolonnen i hver av tabellene.

Noen apper vil samle flere individuelle datapunkter enn de som vises høyere i rangeringen. Dette er fordi vår rangeringsmetodikk vurderer hvilke apper som samler inn data på tvers av de fleste kategoriene totalt sett, noe som antyder et bredere og derfor mer "fullstendig" bilde av brukerdata, i stedet for dybden av informasjon de samler inn i hver kategori. 

Kilder

Forespørsler om korrigering

Vi oppdaterer denne forskningen med jevne mellomrom.

Hvis du er eier av noen av AI-verktøyene som er inkludert i denne forskningen og du ønsker å utfordre informasjonen på denne siden, er vi villige til å oppdatere den med forbehold om vår gjennomgang av bevisene du gir. Når vi kontakter oss i denne forbindelse ber vi om: 

  • forretningsdokumenter som bekrefter legitimiteten din (for eksempel inkorporasjonssertifikat eller registreringsdokumenter) 
  • informasjonen på denne siden du mener er utdatert (vær spesifikk)
  • hvordan den bør oppdateres og hvorfor, med lenker til dokumentasjon som støtter dette (for eksempel endringer i vilkårene for bruk)

Ta kontakt med oss ​​på [e-postbeskyttet] med emnelinjen: 'Korreksjonsforespørsel: AI-verktøystudie', pluss navnet på AI-verktøyet du kontakter oss angående.

Bogdan Rancea

Bogdan Rancea er medgründer av Ecommerce-Platforms.com og hovedkurator for ecomm.design, et utstillingsvindu for de beste e-handelsnettstedene. Med over 12 år i det digitale handelsområdet har han et vell av kunnskap og et godt øye for gode netthandelsopplevelser. Som e-handelsutforsker tester og vurderer Bogdan ulike plattformer og designverktøy som Shopify, Figma og Canva og gir praktiske råd til butikkeiere og designere.