Kunstig intelligens er hurtigt blevet en del af nutidens tidsånd - alligevel forbliver etiske overvejelser omkring emnet uafklarede. Hvor mange brugere er fuldt ud klar over, hvad de tilmelder sig?
Her, ved at skærpe ind på vilkårene og betingelserne og privatlivspolitikkerne bag de mest populære AI-værktøjer og apps, udpakker E-handelsplatforme det, du har brug for at vide, når du bruger disse værktøjer til dine daglige forretningsbehov.
Vi har analyseret de data og personlige oplysninger, som disse værktøjer indsamler (og til hvilket formål) for at hjælpe dig med at bestemme hvilke AI værktøjer, software og platforme er de bedst egnede til din tilsigtede brug. Vi konsulterede også en juridisk ekspert for at nedbryde jargonen bag disse værktøjers vilkår og betingelser.
Når du bruger en AI-app, giver du samtykke til, at (mindst nogle af) dine data indsamles af den
Vi analyserede Apple App Stores privatlivsetiketter for omkring 30 tilgængelige mobilappversioner af populære AI-værktøjer for at forstå, hvilke der indsamler dine data, og hvorfor.
De indsamlede data fra brugere (og deres formål) er opdelt i 14 kategorier, hvilket gør det muligt at fastslå, hvilke apps der indsamler og sporer flest brugerdata.
For yderligere detaljer, tag et kig på metodeafsnittet i slutningen af denne side.
Hvilke data indsamler disse AI-apps?
AI-værktøjerne vurderet i denne forskning indsamler data af forskellige typer. Nogle af disse fokuserer på personlige oplysninger om brugere — fra skærmnavne og bankoplysninger til deres helbred og fitness og endda følsomme oplysninger såsom race/etnicitet, seksuel orientering, kønsidentitet og politiske holdninger.
Andre vedrører indhold, der er oprettet af brugere (såsom e-mails og beskeder, fotos, videoer og lydoptagelser), eller hvordan brugere interagerer med selve produktet, som deres søgehistorik i appen eller hvilke annoncer de har set. Mere upersonlig er den diagnostiske information, der indsamles for at vise data om nedbrud eller energiforbrug.
Hvorfor indsamler disse AI-apps data?
Der er forskellige årsager til, at apps indsamler data,nogle af dem kan ses som mere berettigede end andre — for eksempel kan biometri eller kontaktoplysninger bruges til at autentificere brugerens identitet.
Tilsvarende kan der være behov for adgang til visse data, for at en app kan fungere korrekt, herunder for at forhindre svindel eller forbedre skalerbarhed og ydeevne.
Mere specifikt skal beskedapps have adgang til kontakter, telefonkameraer og mikrofoner for at tillade opkald, mens geolocation er nødvendig for taxa- eller leveringsapps.
Muligvis mindre væsentlige grunde til at indsamle data omfatter annoncering eller markedsføring fra appens udvikler (for eksempel for at sende marketingkommunikation til dine brugere); at aktivere tredjepartsannoncering (ved at spore data fra andre apps for at rette målrettede annoncer mod brugeren, for eksempel); og analysere brugeradfærd til formål, herunder vurdering af effektiviteten af eksisterende funktioner eller planlægning af nye.
Hej mobilbruger 👋 Tabellerne nedenfor kan være rullet vandret for at se alle dataene, men denne side ser bestemt bedre ud Desktop.
AI-apps, der indsamler dine data for at dele med tredjepartsannoncører
Kolonneoverskrifter med knapper kan sorteres.
AI app
% data delt med andre
Browserdata
Kontaktoplysninger
Identifikatorer
Lokation
Andre data
Køb
Search History
Brugsdata
Antal indsamlede datapunkter
Canva
36 %
2
2
1
1
2
8
Duolingo
36 %
2
1
1
1
2
7
Google Assistant
21 %
1
1
1
3
Bing
14 %
1
1
2
Pixai
14 %
1
1
2
livmoder
14 %
1
1
2
ChatGPT
7%
1
1
Genie AI
7%
1
1
Linse
7%
1
1
Tale
7%
1
1
Stjerneklar AI
7%
1
1
Af alle AI-apps inkluderet i vores forskning, Canva, et grafisk designværktøj, indsamler flest data fra sine brugere til tredjeparts annonceringsformål - omkring 36 %. Derimod samler de fem apps, der indsamler mindst data til dette formål, godt 7 %.
De data, som Canvas app indsamler fra dig og deler med tredjeparter, inkluderer din søgehistorik, placering, e-mailadresse og andre oplysninger vist i tabellen ovenfor.
Tæt efter Canva er den gamified sprogindlæringsapp Duolingo (~36%), Google Assistant (~21%), og Microsofts Bing (~14%) - alt sammen også dele dine data med tredjeparter.
Kun af de fem apps, der indsamler mindst data starryai (en billedgenerator) begrænser sig til udelukkende at dele brugsdata.
AI-apps, der indsamler dine data til deres egen fordel
Kolonneoverskrifter med knapper kan sorteres.
App
% data indsamlet til appens egen fordel
Browserdata
Kontaktoplysninger
Identifikatorer
Lokation
Køb
Search History
Brugsdata
Antal indsamlede datapunkter
Canva
43 %
2
2
1
1
1
2
9
Facetune
36 %
2
4
2
2
4
14
Amazon Alexa
36 %
4
2
1
1
2
10
Google Assistant
36 %
1
2
2
1
2
8
Fotorum
29 %
1
1
1
1
4
Duolingo
21 %
2
1
1
4
Stjerneklar AI
14 %
2
1
3
Bing
14 %
1
1
2
Linse
14 %
1
1
2
Otter
7%
2
2
youper
7%
1
1
Poe
7%
1
1
Pixai
7%
1
1
Tale
7%
1
1
livmoder
7%
1
1
Canva topper også diagrammet for AI-apps, der indsamler brugerdata til deres egne reklame- eller marketingformål. For at gøre det indsamler Canva omkring 43 % af deres brugeres data.
På tredjepladsen Amazon Alexa indsamler 36 % af dine data til samme formål. Dette inkluderer din e-mailadresse, fysiske adresse, telefonnummer, søgehistorik og købshistorik plus fem andre datapunkter. Google Assistant indsamler og deler den samme procentdel af data af denne grund, dog på tværs af otte individuelle datapunkter, sammenlignet med de ti, som Amazon Alexa indsamler.
tekst-til-tale stemmegenerator, Speechify, er blandt de apps, der indsamler mindst data. Ifølge sin Apple App Store-fortegnelse's privatlivsetiketter indsamler Speechify kun ét datapunkt til egen fordel; dit enheds-id.
AI-apps, der indsamler dine data til ethvert formål
Kolonneoverskrifter med knapper kan sorteres.
App
% data indsamlet
Browserdata
Kontaktoplysninger
Kontakt os
Diagnostics
Finansiel info
Health & Fitness
Identifikatorer
Lokation
Andre data
Køb
Search History
Følsomme oplysninger
Brugsdata
Brugerindhold
Antal indsamlede datapunkter
Amazon Alexa
93 %
24
4
9
3
4
10
8
4
5
5
4
13
23
116
Google Assistant
86 %
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79 %
10
1
7
1
12
4
4
6
1
7
7
60
Canva
64 %
11
3
1
8
5
4
5
10
6
53
Otter
57 %
7
3
5
7
2
3
2
11
40
Poe
57 %
2
2
3
6
2
3
2
5
25
Facetune
50 %
6
8
18
8
8
14
2
64
Bing
50 %
1
2
6
3
3
2
3
20
DeepSeek
50 %
2
3
4
1
1
2
3
16
hukommelse
43 %
6
4
6
6
6
4
32
Elsa Speak
43 %
2
6
6
3
3
3
23
Fotorum
43 %
2
1
9
3
4
1
20
Trint
43 %
1
2
1
4
1
2
11
ChatGPT
36 %
4
8
5
7
2
26
Perplexity AI
36 %
6
6
2
1
6
21
1 / 2
Alle AI-modeller kræver en form for træning gennem maskinlæring - hvilket betyder det de har brug for data.
Hvis vi ønsker, at AI-værktøjer skal forbedres og blive mere nyttige, kan vores privatliv ses som en nødvendig afvejning mod at give disse data.
Men spørgsmålet om hvor grænsen mellem nytte og udnyttelse skal tegnes, og hvorfor, er en tornet en.
I betragtning af dens nuværende berømmelse er det værd at tage fat på DeepSeek. Dets notering på Apple App Store angiver, at DeepSeek ikke indsamler brugerdata til egen fordel (for eksempel DeepSeeks egen markedsføring og reklame) eller for at dele med tredjeparter.
DeepSeek-appen indsamler selv 50% af sine brugeres data, som betjener DeepSeeks Analytics- og App-funktionalitet. Til sammenligning ChatGPT-appen samler 36 %.
Nogle medier rapporterer bekymringer om sikkerhedsrisici relateret til DeepSeeks kinesiske oprindelse (både med hensyn til dataindsamling og mulig spredning af misinformation) og underbud af amerikanske rivaler. Begge vil næppe blive lindret af DeepSeeks vilkår og betingelser og privatlivspolitik, som ville tage rundt 35 minutter at læse, og er vurderet som "meget svært" på Flesch-Kincaid læsbarhedsskalaen.
Uanset hvordan dine data bruges, Amazon Alexa indsamler flere af sine brugeres data end nogen anden AI-app inkluderet i denne forskning. Samlet set samler det 93 % af dine data (eller 116 individuelle metrics, primært kontaktoplysninger, brugerindhold og brugsdata).
Google Assistant kommer næste, indsamling 86 %, efterfulgt af Duolingo, som samler ind 79 %.
I den anden ende af skalaen AI-billedgenerator, Stable Diffusion, indsamler ingen data. Det er ifølge privatlivsetiketter på deres Apple App Store-liste.
Mens det er sandt, at alle generativ AI modeller kræver enorme mængder data for at blive trænet, denne træning sker forud for udviklingen af specifikke apps. I de fleste tilfælde ejer app-skabere ikke de AI-modeller, de bruger; indsamling af brugerdata relaterer sig derfor til selve appens funktionalitet. Dette kan forklare, hvorfor nogle af de apps, vi har undersøgt, ikke har nogen oplysninger i ovenstående tabel.
Navigering af vilkår og betingelser bag AI-værktøjer
Lad os nu se på juridisk dokumentation bag forskellige AI-værktøjer til at finde ud af hvor nemme eller svære de er at læse. Dette er baseret på Flesch-Kincaid læse-grade-niveau test.
Dette system sidestiller tekster med amerikanske skolelæsningsniveauer (fra femte til 12. klasse), derefter College, College Graduate og Professional. Tekster på sjette klassetrin defineres som "samtaleengelsk for forbrugere", hvorimod fagbedømte tekster beskrives som "ekstremt svære at læse".
Jo lavere læsbarhedsscore, jo sværere er teksten at læse.
Sigende nok er 'at få nok søvn' - afgørende for fysisk og mental sundhed og kognitiv funktion - på tredjepladsen, efter 'at arbejde lange timer' og 'sortere selvangivelser'.
En tredjedel af de adspurgte mente, at det ikke var muligt at administrere hele deres administration i arbejdstiden, og sagde de havde brug for fire ekstra timer om dagen for at komme igennem det hele.
Dette giver en fornemmelse af, hvor straffende det kan være at drive en SMV, og at tid til at læse vilkår og betingelser bag de værktøjer, de er afhængige af, er ikke let at komme forbi.
I denne sammenhæng er de 40 minutter lange læsetider for T&C'erne for transskribering af værktøjer som Otter, Trint og Descript af stor betydning.
og det er forudsat at det er muligt at forstå de mest svære at læse vilkår og betingelser. Det er derfor, vi søgte ekspertise hos en juridisk ekspert.
Vi bad en juridisk ekspert i kunstig intelligens og teknologi om at læse dem og forklare de vigtigste punkter, du har brug for at vide
Josilda Ndreaj, en juridisk professionel og autoriseret advokat, har navigeret i komplekse juridiske spørgsmål på vegne af Fortune 500-kunder og ydet rådgivning til forskellige virksomheder.
Senere har hun som selvstændig konsulent fokuseret på intellektuel ejendomsret i krydsfeltet mellem blockchain-teknologi og kunstig intelligens.
Josilda Ndreaj (LLM) er en juridisk professionel og licenseret advokat med ekspertise inden for intellektuel ejendomsret (IP).
Hendes karriere som juridisk konsulent begyndte i et prestigefyldt internationalt advokatfirma, der henvender sig til Fortune 500-kunder. Her navigerede Josilda i komplekse juridiske spørgsmål og ydede rådgivning til forskellige virksomheder.
Drevet af interesser i innovation, kreativitet og nye teknologier vovede Josilda sig derefter ud i uafhængig rådgivning og fokuserede på intellektuel ejendomsret ved at dække krydset med blockchain-teknologi og kunstig intelligens.
Josilda har to cand.jur.-grader; den ene med speciale i civil- og handelsret fra Tirana University, og den anden med fokus på intellektuel ejendomsret, fra Zhongnan University of Economics and Law.
Som sådan var Josilda unikt positioneret til at gennemgå et udvalg af disse AI-værktøjers juridiske dokumenter, og trækker nøglepunkter ud til gavn for dem af os, der ikke har to Master of Laws-grader.
Hendes resuméer er skitseret nedenfor:
Plagiat og krænkelse af ophavsret
Gemini (tidligere Bard) har ingen forpligtelse til at angive kilder til træning, så vi kan ikke kontrollere, om den er trænet i ophavsretligt beskyttet materiale. Gemini er ikke udelukket fra ansvar for en sådan krænkelse; hvis en copyright-ejer anklager, bærer Gemini et vist ansvar. Men det er vigtigt at bemærke, at Gemini er trænet i, hvad brugeren giver den. Til dette, Gemini kræver en licens fra brugeren. Hvis brugeren accepterer at give denne licens til Gemini, men de (brugeren) faktisk ikke ejer ophavsretten, flyttes ansvaret til brugeren.
Brugere bevarer ejerskabet af deres input og prompter, men output ejerskab er mere komplekst. Gemini gør dette ikke klart i sine vilkår. Mange lovgivninger anerkender ikke intellektuelle ejendomsrettigheder til maskiner. Det er imidlertid tvivlsomt at hævde, at outputtet er "menneskeskabt", selvom brugeren ejer inputtet.
Virksomhedsejere bør aldrig offentliggøre et output fra Gemini uden at krydshenvise, gennemgå for opdateringer og tjekke med eksperter for nøjagtighed. Ellers risikerer de at offentliggøre vildledende oplysninger, som kan have omdømmemæssige eller juridiske konsekvenser.
Sikkerhed og fortrolighed
Google (ejeren af Gemini) giver ingen oplysninger i sin privatlivspolitik om, hvordan den håndterer fortrolige data.
I øjeblikket kræver ingen lovgivning, at ChatGPT offentligt erklærer, hvad dens model er trænet i. Så fordi den ikke afslører sine kilder, kan vi ikke vide, om ChatGPT leverer eller behandler indhold, der er beskyttet af love om ophavsret. Hvis nogen identificerer ophavsretligt beskyttet indhold fra ChatGPT, de kan fremsætte et krav for at fjerne dette indhold.
Brugere skal bekræfte alle oplysninger fra ChatGPT. Det er fordi ChatGPT påtager sig intet ansvar for at give nøjagtige oplysninger, opdateret indhold. I henhold til afsnittet om ansvarsfraskrivelse, brugeren påtager sig alle risici for nøjagtighed, kvalitet, pålidelighed, sikkerhed og fuldstændighed. Bekræft derfor altid fakta fra ChatGPT; krydsreferencer, gennemgå for opdateringer, og tjek også med eksperter for nøjagtighed. Virksomhedsejere kan stå over for juridiske eller omdømmemæssige konsekvenser, hvis de ikke bekræfter ChatGPT-indhold for nøjagtighed før offentliggørelse.
Sikkerhed og fortrolighed
ChatGPT indsamler oplysninger fra input - herunder personlige oplysninger - for potentielt at træne sine modeller (i henhold til fortrolighedspolitikken). Brugeren kan fravælge. Situationen ændrer sig, hvis data sendes via API-forbindelser (ChatGPT Enterprise, Team osv.); det er fordi ChatGPT bruger ikke input fra erhvervskunder at træne modeller. ChatGPT har sikkerhedsforanstaltninger på plads, men adresserer ikke eksplicit ansvaret for et sikkerhedsbrud. Det hele afhænger af regionale love.
Brug
ChatGPT-brugere ejer deres input og output indhold; brugerne skal derfor sikre sig, at indholdet ikke overtræder nogen love. Brugere kan ikke hævde, at indholdet er menneskeskabt, men du behøver heller ikke sige, at det er AI-genereret. Så længe brugerne følger regionale love og brugsbetingelserne, kan ChatGPT-indhold bruges til kommercielle formål, på sociale medier, til betalt annoncering og andre kanaler. Det anbefales, at du tjekker fakta, laver referencer og overholder love, før du udgiver indhold fra ChatGPT.
Plagiat og krænkelse af ophavsret
Hverken privatlivspolitikken eller vilkårene angiver, om DeepSeeks AI-værktøj er blevet trænet i ophavsretligt beskyttet materiale. Hvad mere er, giver de heller ingen garantier for, at outputtet ikke krænker nogens ophavsret. Det fremgår af DeepSeeks brugsbetingelser brugere bevarer rettighederne til deres input (prompter), men dette betyder ikke nødvendigvis, at de er ophavsretligt beskyttet i første omgang, så brugere bør tage skridt til at sikre, at det, de bruger som prompter, ikke er en andens intellektuelle ejendom.
DeepSeeks privatlivspolitik forklarer, at brugerinput behandles for at generere output, men også til forbedre DeepSeeks service. Dette inkluderer 'træning og forbedring af [deres] teknologi'. Brugere bør derfor være forsigtige med at indtaste følsomme oplysninger, og selvom DeepSeek har 'kommercielt rimeligtforanstaltninger, der er på plads for at beskytte de data og informationer, der bruges som input, giver det ingen absolutte garantier. DeepSeeks vilkår siger, at de ikke offentliggør input eller output i offentlige fora, men nogle kan blive delt med tredjeparter.
Brug
Alt indhold, som brugere genererer gennem DeepSeek, kan bruges til kommercielle formål, men på grund af gråzoner omkring plagiat og nøjagtighed, bør brugere tage skridt til at verificere indholdet, før de bruger det på denne måde. DeepSeeks Servicevilkår refererer ikke til nogen begrænsning med hensyn til, hvor i verden brugere kan udgive dette indhold, men de angiver klart, at brugere skal erklære det som AI-genereret "for at advare offentligheden om indholdets syntetiske natur".
Plagiat og krænkelse af ophavsret
Canva er ikke juridisk forpligtet til at afsløre sine kilder til træningsdata. Derfor ved vi ikke, om ophavsretligt beskyttet materiale bliver brugt. Brugeren ejer alt input- og outputindhold (ikke Canva), men Canva kan bruge dette indhold til at forbedre sine tjenester.
I lighed med ChatGPT erklærer DALL-E ikke kilder til sin modeltræning. Hvis du derimod finder ophavsretligt beskyttet indhold, vil du kan fremsætte krav om fjernelse. Det er svært at kontrollere, om DALL-E krænker en ophavsret, da ingen lovgivning kræver, at DALL-E afslører sine datakilder. Brugerinput i henhold til vilkårene, kan bruges til at træne DALL-E's model - også selvom det er ophavsretligt beskyttet indhold. Brugeren kan fravælge dette.
Privatlivspolitikken og vilkår og betingelser fra DALL-E omhandler aldrig eksplicit ansvar i tilfælde af et sikkerhedsbrud. DALL-E har dog sikkerhedsforanstaltninger på plads. Hvem der bærer ansvaret i tilfælde af et hack afhænger af regionale love.
Du kan bruge DALL-E til kommercielle formål, så længe du følger alle love og DALL-E vilkårene. Reglerne kan ændre sig, men i skrivende stund er brugere velkomne til at offentliggøre DALL-E indhold på sociale medier, i annoncer og på andre kanaler. Brugere bør altid lave korrekte referencer og faktatjek nøjagtighed for at undgå at overtræde nogen love.
Plagiat og krænkelse af ophavsret
Bing har ingen forpligtelse til at dele sine datatræningskilder, hvilket gør det meget vanskeligt at finde ud af, om Bing AI utilsigtet bruger ophavsretligt beskyttet indhold. Selvom det er vanskeligt at identificere, kan brugere gøre krav på ophavsretligt beskyttet indhold. Microsoft Services Agreement siger, at Bing AI tager brugerinput og -output for at forbedre sin model, men der er intet formelt på plads for at forhindre tyveri af intellektuel ejendom.
Microsoft gør ikke krav på ejerskab af brugerindhold, men det regulerer ikke specifikt AI-genereret indhold, hvor ejerskabet er usikkert. Tjenesteaftalen lader folk bruge indhold til kommercielle formål med nogle væsentlige betingelser: du skal acceptere, at AI-genereret indhold mangler menneskelig kreativitet, så det kan ikke hævdes som intellektuel ejendomsret; du må heller ikke krænke andres immaterielle rettigheder. Kort sagt kan du ikke bruge andres immaterielle rettigheder, men uanset hvad du laver med Bing er det nok ikke din egen intellektuelle ejendom.
Plagiat og krænkelse af ophavsret
Quillbot har ingen forpligtelse til at afsløre kilder, den bruger til at træne modeller. Imidlertid forsøger virksomheden interessant nok at regulere en unik situation: hvad nu hvis kilden til modeltræning er AI's output? Quillbot forsøger i det væsentlige at minimere potentialet for ophavsretligt beskyttet output, men siger, at der stadig er en chance for, at output er ophavsretligt beskyttet, hvis brugere indtaster ophavsretligt beskyttet indhold. For at gøre tingene mere forvirrende, forsøger Quillbot at dække alle områder ved at sige, at brugerne giver Quillbot en ubegrænset, underlicenserbar licens, mens de også hævder, at brugerne ejer alle deres output.
Quillbot har foranstaltninger til beskyttelse af brugernes privatliv, men det kan stadig ende med at behandle personoplysninger. Der er særlige beskyttelser for børns privatliv. Ansvaret for tab af data fra et hack håndteres fra sag til sag. Quillbot siger, at brugeren skal tage skridt til at forhindre, at deres personlige data bliver hacket, og at Quillbot har databeskyttelseselementer på plads.
Brug
Quillbot-brugere kan udgive genereret indhold til kommercielle formål, men du skal muligvis følge nogle regler, såsom ikke at udgive skadeligt eller vildledende indhold. Quillbots Betingelser sig ikke, at du skal erklære, at indholdet er AI-genereret. Kort sagt brugeren kan udgive indhold genereret af Quillbot så længe det ikke overtræder nogen love eller rettigheder.
Plagiat og krænkelse af ophavsret
Pixlr afslører ikke sine kilder til AI-modeltræning, da der ikke er nogen juridisk forpligtelse for dem til at gøre det. Dets vilkår angiver, at brugeren ejer indholdet, men brugerne også give en licens til Pixlr til at bruge indholdet. Dette er et forsøg på at minimere brugen af ophavsretligt beskyttet indhold.
Brugere kan udgive AI-genereret indhold lavet gennem Pixlr til kommercielle formål (selvom nogle betingelser gælder). Vilkårene kræver ikke, at du angiver, at noget er AI-genereret. Brugere er dog stadig ansvarlige for at overtræde rettigheder eller love.
Midjourney træner sin model med brugerinput, selvom den inkluderer personlige eller fortrolige data. Midjourney hævder, at brugeren skal være forsigtig med følsomme data, så det er ikke deres problem. Virksomheden forsøger at filtrere visse oplysninger fra til modeltræning, men det er ikke påkrævet. Midjourney påtager sig intet ansvar for sikkerhedsproblemer, der kan opstå som følge af en brugers handlinger.
Brug
Midjourney-brugere kan udgive genereret indhold til kommercielle formål. Nogle betingelser, såsom kravet om at abonnere på Pro-versionen hvis virksomheden tjener mere end 1 mio. USD om året, anvende. I skrivende stund behøver brugerne ikke at hævde, at noget er AI-genereret fra Midjourney, selvom der er lovgivning i gang for at ændre dette. Brugere kan generelt bruge ethvert Modjourney-indhold, hvis det ikke overtræder nogen rettigheder eller love.
Clipchamp og Microsoft styrer væk fra at regulere AI-genereret indhold, aldrig hævde, at Microsoft ejer indholdet. Teknisk siger Microsoft, at brugeren ejer det, men uden de intellektuelle ejendomsrettigheder. Brugeren kan udgive Clipchamp-indhold til kommercielle formål med to betingelser: du må ikke krænke intellektuelle ejendomsrettigheder eller hævde, at du har intellektuelle ejendomsrettigheder til genereret indhold.
Plagiat og krænkelse af ophavsret
The Looka Betingelser oplyse, at virksomheden ikke har nogen forpligtelser til at dele datatræningskilder, så det gør de ikke. Brugere bærer alle risici, når de bruger Looka-genereret indhold.
Nøjagtighed og pålidelighed
Looka påtager sig intet ansvar for nøjagtigheden og pålideligheden af outputtet fra dets AI-værktøjer. Brugere bør verificere alle fakta og kontroller for pålidelighed.
Sikkerhed og fortrolighed
Looka bruger inputdata - selv potentielt personlige og fortrolige data - til at træne sin model, så brugeren er ansvarlig for ikke at bruge denne type data i deres input. Looka forsøger at filtrere sådanne data, men de hævder, at de ikke behøver det. Derudover er alle sikkerhedsproblemer brugerens byrde.
Brug
Looka-brugere kan bruge AI-genereret indhold til kommercielle formål, men de skal muligvis følge betingelser eller betale et gebyr. Brugere behøver ikke at mærke deres genererede indhold som AI-genereret. Brugere bør undgå at udgive genereret indhold, der overtræder rettigheder eller love.
Plagiat og krænkelse af ophavsret
Det er ikke muligt at sige, om Speechify træner sin model på ophavsretligt beskyttet materiale. Vi ved det simpelthen ikke. Speechifys vilkår anbefaler ikke at bruge ophavsretligt beskyttet materiale til input, hvilket tyder på, at nogle output kan have ophavsretligt beskyttede data. Speechify hævder ikke at bære noget ansvar for dette.
Nøjagtighed og pålidelighed
Speechify, ifølge sin Betingelser, tager intet ansvar for nøjagtigheden af dets output. Brugere bør altid tjekke for aktualitet, pålidelighed og nøjagtighed med Speechify.
Kapwing-brugere påtager sig alle risici, når de vælger at indtaste fortrolige oplysninger i deres AI-værktøj. Det giver heller ingen garanti eller ansvar for tjenestens sikkerhed.
Brug
Du kan udgive Kapwing-indhold kommercielt, men Kapwing råder brugerne til at være forsigtige. Deres vilkår siger ikke, om brugerne skal erklære, at output fra Kapwing er AI-genereret.
Otter.ai udelukker sig selv fra ansvar med hensyn til nøjagtighed og pålidelighed, så brugere bør altid verificere indholdet. Brug af faktuelt vildledende eller ukorrekte oplysninger kan forårsage juridiske eller omdømmeproblemer for brugeren.
PhotoRoom kunne tage brugerinput og -output til modeltræning, men der er begrænset information om, hvorvidt tjenesten gør det eller ej. PhotoRoom-vilkårene minder brugerne om at undgå at indlæse ophavsretligt beskyttet indhold. Brugerne bærer alt ansvar for det.
PhotoRoom indhold kan bruges til kommercielle formål, men nogle betingelser kan være gældende, såsom tilmelding til et abonnement. Vilkårene angiver, at du ikke behøver at markere indhold som AI-genereret. Brugere kan se andre konsekvenser, hvis de overtræder rettigheder eller love.
Ansvarsfraskrivelse
Disse oplysninger er kun til generelle informationsformål og bør ikke opfattes som juridisk rådgivning. E-handelsplatforme påtager sig intet ansvar for fejl eller udeladelser. Rådfør dig med en passende juridisk professionel for råd og vejledning skræddersyet til dine specifikke behov og omstændigheder.
Konklusion
Allestedsnærværelsen af AI gør det mere og mere sandsynligt for os alle at bruge værktøjer og apps baseret på denne teknologi - men mange af os har ikke den luksus, det tager at læse deres vilkår og betingelser.
I betragtning af hvor mange AI T&C'er vi vurderede med lave læsbarhedsscore, ser det ud til at uigennemtrængeligheden af disse dokumenters juridiske afskrækker brugere fra selv at forsøge at forstå dem.
Vi arbejdede sammen med en advokat om at parse dokumenterne for os, men det er tvivlsomt, om det skulle være nødvendigt.
Vi håber, at denne forskning – herunder dens læsbarhedsvurderinger og Josilda Ndreajs ekspertise i de vilkår og betingelser, du skal være opmærksom på – vil hjælpe dig med at vælge, hvilke AI-apps og værktøjer du skal bruge.
Metode og kilder
Hvordan vi udførte undersøgelsen
Startende med en startliste med omkring 90 AI-værktøjer og -apps, samlede vi først hvert værktøjs juridiske dokumentation, fra vilkår og betingelser til privatlivspolitikker. Vi registrerede derefter ordlængderne af disse dokumenter og beregnede deres læsbarhedsscore ved hjælp af Flesch-Kincaids karaktersystem. Dernæst fik vi hjælp fra en juridisk ekspert, Josilda Ndreaj (LLM), som gennemgik et udvalg af disse juridiske dokumenter og identificerede nøglepunkter, som brugerne bør være opmærksomme på.
For omkring 30 af de AI-værktøjer, der har mobilappversioner tilgængelige, søgte vi hver i Apple App Store og registrerede deres privatlivsetiketter vist på deres fortegnelser. Disse er opdelt i 14 kategorier af data, der kan indsamles fra brugere, og til hvilket formål. For at beregne, hvilke AI-apps, der indsamlede flest data, målte vi, hvor mange af de 14 mulige kategorier, disse apps sporede deres brugere på tværs af.
Det er vigtigt at bemærke, at disse 14 kategorier er opdelt yderligere i individuelle datapunkter. For eksempel inkluderer 'Kontaktinfo' fem datapunkter, som er; 'Navn', 'E-mail-adresse', 'Telefonnummer', 'Fysisk adresse' og 'Andre brugerkontaktoplysninger'. For at finde ud af, hvilke apps der indsamler flest individuelle datapunkter, skal du tage et kig på den sidste kolonne i hver af tabellerne.
Nogle apps vil indsamle flere individuelle datapunkter end dem, der vises højere på ranglisten. Dette skyldes, at vores rangeringsmetodologi overvejer, hvilke apps der samlet indsamler data på tværs af de fleste kategorier, hvilket tyder på et bredere og derfor mere 'komplet' billede af brugerdata snarere end dybden af information, de indsamler i hver kategori.
Kilder
Apple App Store sider for hver app, nøjagtig fra februar 2025.
Forskellig dokumentation for hver AI-app (inklusive vilkår og betingelser og privatlivspolitikker) tilgået og gennemgået af Josilda Ndreaj i februar 2024, undtagen DeepSeek, som blev tilgået og gennemgået i januar 2025.
Flesch-Kincaid Læsbarhedsberegner.
Ordtæller skraber.
Forskellige roundups for at informere den indledende startliste over AI-apps og værktøjer, herunder:
Hvis du er ejer af et af de AI-værktøjer, der er inkluderet i denne forskning, og du gerne vil udfordre oplysningerne på denne side, er vi villige til at opdatere dem med forbehold for vores gennemgang af de beviser, du fremlægger. Når vi kontakter os i denne forbindelse, beder vi venligst om:
forretningsdokumenter, der bekræfter din legitimitet (f.eks. stiftelsescertifikat eller registreringsdokumenter)
oplysningerne på denne side, som du mener er forældede (vær venlig)
hvordan det skal opdateres og hvorfor, med links til dokumentation, der understøtter dette (f.eks. ændringer til servicevilkår)
Kontakt os venligst på [e-mail beskyttet] med emnelinjen: 'Korrektionsanmodning: AI-værktøjsundersøgelse', plus navnet på det AI-værktøj, du kontakter os om.
Bogdan Rancea er medstifter af Ecommerce-Platforms.com og hovedkurator for ecomm.design, et udstillingsvindue for de bedste e-handelswebsteder. Med over 12 år i det digitale handelsområde har han et væld af viden og et skarpt øje for gode online detailoplevelser. Som e-handels-teknolog tester og anmelder Bogdan forskellige platforme og designværktøjer som f Shopify, Figma og Canva og giver praktiske råd til butiksejere og designere.
Denne hjemmeside bruger cookies, kun til væsentlig funktionalitet og analyser som beskrevet i vores cookie politik.