Bag det med småt: Forståelse af AI-apps og privatliv

Hvis du abonnerer på en tjeneste fra et link på denne side, kan Reeves and Sons Limited optjene en kommission. Se vores etikerklæring.

Kunstig intelligens er hurtigt blevet en del af nutidens tidsånd - alligevel forbliver etiske overvejelser omkring emnet uafklarede. Hvor mange brugere er fuldt ud klar over, hvad de tilmelder sig?

Her, ved at skærpe ind på vilkårene og betingelserne og privatlivspolitikkerne bag de mest populære AI-værktøjer og apps, udpakker E-handelsplatforme det, du har brug for at vide, når du bruger disse værktøjer til dine daglige forretningsbehov.

Vi har analyseret de data og personlige oplysninger, som disse værktøjer indsamler (og til hvilket formål) for at hjælpe dig med at bestemme hvilke AI værktøjer, software og platforme er de bedst egnede til din tilsigtede brug. Vi konsulterede også en juridisk ekspert for at nedbryde jargonen bag disse værktøjers vilkår og betingelser.

Vi analyserede Apple App Stores privatlivsetiketter for omkring 30 tilgængelige mobilappversioner af populære AI-værktøjer for at forstå, hvilke der indsamler dine data, og hvorfor. 

De indsamlede data fra brugere (og deres formål) er opdelt i 14 kategorier, hvilket gør det muligt at fastslå, hvilke apps der indsamler og sporer flest brugerdata.

For yderligere detaljer, tag et kig på metodeafsnittet i slutningen af ​​denne side.

Hvilke data indsamler disse AI-apps?

AI-værktøjerne vurderet i denne forskning indsamler data af forskellige typer. Nogle af disse fokuserer på personlige oplysninger om brugere — fra skærmnavne og bankoplysninger til deres helbred og fitness og endda følsomme oplysninger såsom race/etnicitet, seksuel orientering, kønsidentitet og politiske holdninger. 

Andre vedrører indhold, der er oprettet af brugere (såsom e-mails og beskeder, fotos, videoer og lydoptagelser), eller hvordan brugere interagerer med selve produktet, som deres søgehistorik i appen eller hvilke annoncer de har set. Mere upersonlig er den diagnostiske information, der indsamles for at vise data om nedbrud eller energiforbrug.

Hvorfor indsamler disse AI-apps data?

Der er forskellige årsager til, at apps indsamler data, nogle af dem kan ses som mere berettigede end andre — for eksempel kan biometri eller kontaktoplysninger bruges til at autentificere brugerens identitet.

Tilsvarende kan der være behov for adgang til visse data, for at en app kan fungere korrekt, herunder for at forhindre svindel eller forbedre skalerbarhed og ydeevne.

Mere specifikt skal beskedapps have adgang til kontakter, telefonkameraer og mikrofoner for at tillade opkald, mens geolocation er nødvendig for taxa- eller leveringsapps.

Muligvis mindre væsentlige grunde til at indsamle data omfatter annoncering eller markedsføring fra appens udvikler (for eksempel for at sende marketingkommunikation til dine brugere); at aktivere tredjepartsannoncering (ved at spore data fra andre apps for at rette målrettede annoncer mod brugeren, for eksempel); og analysere brugeradfærd til formål, herunder vurdering af effektiviteten af ​​eksisterende funktioner eller planlægning af nye.

Hej mobilbruger 👋 Tabellerne nedenfor kan være rullet vandret for at se alle dataene, men denne side ser bestemt bedre ud Desktop.

AI-apps, der indsamler dine data for at dele med tredjepartsannoncører

Kolonneoverskrifter med knapper kan sorteres.
AI app % data delt med andre Browserdata Kontaktoplysninger Identifikatorer Lokation Andre data Køb Search History Brugsdata Antal indsamlede datapunkter
Canva 36 % 2 2 1 1 2 8
Duolingo 36 % 2 1 1 1 2 7
Google Assistant 21 % 1 1 1 3
Bing 14 % 1 1 2
Pixai 14 % 1 1 2
livmoder 14 % 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Linse 7% 1 1
Tale 7% 1 1
Stjerneklar AI 7% 1 1

Af alle AI-apps inkluderet i vores forskning, Canva, et grafisk designværktøj, indsamler flest data fra sine brugere til tredjeparts annonceringsformål - omkring 36 %. Derimod samler de fem apps, der indsamler mindst data til dette formål, godt 7 %.

De data, som Canvas app indsamler fra dig og deler med tredjeparter, inkluderer din søgehistorik, placering, e-mailadresse og andre oplysninger vist i tabellen ovenfor. 

Tæt efter Canva er den gamified sprogindlæringsapp Duolingo (~36%), Google Assistant (~21%), og Microsofts Bing (~14%) - alt sammen også dele dine data med tredjeparter

Kun af de fem apps, der indsamler mindst data starryai (en billedgenerator) begrænser sig til udelukkende at dele brugsdata.

AI-apps, der indsamler dine data til deres egen fordel

Kolonneoverskrifter med knapper kan sorteres.
App % data indsamlet til appens egen fordel Browserdata Kontaktoplysninger Identifikatorer Lokation Køb Search History Brugsdata Antal indsamlede datapunkter
Canva 43 % 2 2 1 1 1 2 9
Facetune 36 % 2 4 2 2 4 14
Amazon Alexa 36 % 4 2 1 1 2 10
Google Assistant 36 % 1 2 2 1 2 8
Fotorum 29 % 1 1 1 1 4
Duolingo 21 % 2 1 1 4
Stjerneklar AI 14 % 2 1 3
Bing 14 % 1 1 2
Linse 14 % 1 1 2
Otter 7% 2 2
youper 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Tale 7% 1 1
livmoder 7% 1 1

Canva topper også diagrammet for AI-apps, der indsamler brugerdata til deres egne reklame- eller marketingformål. For at gøre det indsamler Canva omkring 43 % af deres brugeres data.

På tredjepladsen Amazon Alexa indsamler 36 % af dine data til samme formål. Dette inkluderer din e-mailadresse, fysiske adresse, telefonnummer, søgehistorik og købshistorik plus fem andre datapunkter. Google Assistant indsamler og deler den samme procentdel af data af denne grund, dog på tværs af otte individuelle datapunkter, sammenlignet med de ti, som Amazon Alexa indsamler.

tekst-til-tale stemmegenerator, Speechify, er blandt de apps, der indsamler mindst data. Ifølge sin Apple App Store-fortegnelse's privatlivsetiketter indsamler Speechify kun ét datapunkt til egen fordel; dit enheds-id.

AI-apps, der indsamler dine data til ethvert formål

Kolonneoverskrifter med knapper kan sorteres.
App % data indsamlet Browserdata Kontaktoplysninger Kontakt os Diagnostics Finansiel info Health & Fitness Identifikatorer Lokation Andre data Køb Search History Følsomme oplysninger Brugsdata Brugerindhold Antal indsamlede datapunkter
Amazon Alexa 93 % 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86 % 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79 % 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64 % 11 3 1 8 5 4 5 10 6 53
Otter 57 % 7 3 5 7 2 3 2 11 40
Poe 57 % 2 2 3 6 2 3 2 5 25
Facetune 50 % 6 8 18 8 8 14 2 64
Bing 50 % 1 2 6 3 3 2 3 20
DeepSeek 50 % 2 3 4 1 1 2 3 16
hukommelse 43 % 6 4 6 6 6 4 32
Elsa Speak 43 % 2 6 6 3 3 3 23
Fotorum 43 % 2 1 9 3 4 1 20
Trint 43 % 1 2 1 4 1 2 11
ChatGPT 36 % 4 8 5 7 2 26
Perplexity AI 36 % 6 6 2 1 6 21
1 / 2

Alle AI-modeller kræver en form for træning gennem maskinlæring - hvilket betyder det de har brug for data.

Hvis vi ønsker, at AI-værktøjer skal forbedres og blive mere nyttige, kan vores privatliv ses som en nødvendig afvejning mod at give disse data.

Men spørgsmålet om hvor grænsen mellem nytte og udnyttelse skal tegnes, og hvorfor, er en tornet en.

I betragtning af dens nuværende berømmelse er det værd at tage fat på DeepSeek. Dets notering på Apple App Store angiver, at DeepSeek ikke indsamler brugerdata til egen fordel (for eksempel DeepSeeks egen markedsføring og reklame) eller for at dele med tredjeparter.

Men det er værd at påpege det deres Privatlivspolitik siger noget andet (mere om dette senere). 

DeepSeek-appen indsamler selv 50% af sine brugeres data, som betjener DeepSeeks Analytics- og App-funktionalitet. Til sammenligning ChatGPT-appen samler 36 %.

Nogle medier rapporterer bekymringer om sikkerhedsrisici relateret til DeepSeeks kinesiske oprindelse (både med hensyn til dataindsamling og mulig spredning af misinformation) og underbud af amerikanske rivaler. Begge vil næppe blive lindret af DeepSeeks vilkår og betingelser og privatlivspolitik, som ville tage rundt 35 minutter at læse, og er vurderet som "meget svært" på Flesch-Kincaid læsbarhedsskalaen.

Uanset hvordan dine data bruges, Amazon Alexa indsamler flere af sine brugeres data end nogen anden AI-app inkluderet i denne forskning. Samlet set samler det 93 % af dine data (eller 116 individuelle metrics, primært kontaktoplysninger, brugerindhold og brugsdata).

Google Assistant kommer næste, indsamling 86 %, efterfulgt af Duolingo, som samler ind 79 %.

I den anden ende af skalaen AI-billedgenerator, Stable Diffusion, indsamler ingen data. Det er ifølge privatlivsetiketter på deres Apple App Store-liste.

Mens det er sandt, at alle generativ AI modeller kræver enorme mængder data for at blive trænet, denne træning sker forud for udviklingen af ​​specifikke apps. I de fleste tilfælde ejer app-skabere ikke de AI-modeller, de bruger; indsamling af brugerdata relaterer sig derfor til selve appens funktionalitet. Dette kan forklare, hvorfor nogle af de apps, vi har undersøgt, ikke har nogen oplysninger i ovenstående tabel.

Navigering af vilkår og betingelser bag AI-værktøjer

Lad os nu se på juridisk dokumentation bag forskellige AI-værktøjer til at finde ud af hvor nemme eller svære de er at læse. Dette er baseret på Flesch-Kincaid læse-grade-niveau test.

Dette system sidestiller tekster med amerikanske skolelæsningsniveauer (fra femte til 12. klasse), derefter College, College Graduate og Professional. Tekster på sjette klassetrin defineres som "samtaleengelsk for forbrugere", hvorimod fagbedømte tekster beskrives som "ekstremt svære at læse".

Jo lavere læsbarhedsscore, jo sværere er teksten at læse.

Kolonneoverskrifter med knapper kan sorteres.
Clipchamp 3 timer 16 minutter 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 timer 20 minutter 35.4 🤯🤯🤯🤯🤯
veed.io 2 timer 15 minutter 37.9 🤯🤯🤯🤯🤯
Facetune 2 timer 4 minutter 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 timer 47 minutter 31.4 🤯🤯🤯🤯🤯🤯
Otter 1 timer 11 minutter 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 timer 9 minutter 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 timer 6 minutter 30.9 🤯🤯🤯🤯🤯🤯
Tale 1 timer 6 minutter 35.0 🤯🤯🤯🤯🤯🤯
Runway 1 timer 2 minutter 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

I 2023, det britiske erhvervsforsikringsselskab Superscript spurgte ejerne af 500 små og mellemstore virksomheder (SMV'er) for at finde ud af, hvad der bruger mest af deres tid.

Sigende nok er 'at få nok søvn' - afgørende for fysisk og mental sundhed og kognitiv funktion - på tredjepladsen, efter 'at arbejde lange timer' og 'sortere selvangivelser'.

En tredjedel af de adspurgte mente, at det ikke var muligt at administrere hele deres administration i arbejdstiden, og sagde de havde brug for fire ekstra timer om dagen for at komme igennem det hele.

Dette giver en fornemmelse af, hvor straffende det kan være at drive en SMV, og at tid til at læse vilkår og betingelser bag de værktøjer, de er afhængige af, er ikke let at komme forbi.

I denne sammenhæng er de 40 minutter lange læsetider for T&C'erne for transskribering af værktøjer som Otter, Trint og Descript af stor betydning. 

og det er forudsat at det er muligt at forstå de mest svære at læse vilkår og betingelser. Det er derfor, vi søgte ekspertise hos en juridisk ekspert.

Josilda Ndreaj, en juridisk professionel og autoriseret advokat, har navigeret i komplekse juridiske spørgsmål på vegne af Fortune 500-kunder og ydet rådgivning til forskellige virksomheder.

Senere har hun som selvstændig konsulent fokuseret på intellektuel ejendomsret i krydsfeltet mellem blockchain-teknologi og kunstig intelligens.

Josilda Ndreaj (LLM) er en juridisk professionel og licenseret advokat med ekspertise inden for intellektuel ejendomsret (IP).

Hendes karriere som juridisk konsulent begyndte i et prestigefyldt internationalt advokatfirma, der henvender sig til Fortune 500-kunder. Her navigerede Josilda i komplekse juridiske spørgsmål og ydede rådgivning til forskellige virksomheder.

Drevet af interesser i innovation, kreativitet og nye teknologier vovede Josilda sig derefter ud i uafhængig rådgivning og fokuserede på intellektuel ejendomsret ved at dække krydset med blockchain-teknologi og kunstig intelligens.

Josilda har to cand.jur.-grader; den ene med speciale i civil- og handelsret fra Tirana University, og den anden med fokus på intellektuel ejendomsret, fra Zhongnan University of Economics and Law.

Som sådan var Josilda unikt positioneret til at gennemgå et udvalg af disse AI-værktøjers juridiske dokumenter, og trækker nøglepunkter ud til gavn for dem af os, der ikke har to Master of Laws-grader.

Hendes resuméer er skitseret nedenfor:

Gemini (tidligere Bard) har ingen forpligtelse til at angive kilder til træning, så vi kan ikke kontrollere, om den er trænet i ophavsretligt beskyttet materiale. Gemini er ikke udelukket fra ansvar for en sådan krænkelse; hvis en copyright-ejer anklager, bærer Gemini et vist ansvar. Men det er vigtigt at bemærke, at Gemini er trænet i, hvad brugeren giver den. Til dette, Gemini kræver en licens fra brugeren. Hvis brugeren accepterer at give denne licens til Gemini, men de (brugeren) faktisk ikke ejer ophavsretten, flyttes ansvaret til brugeren.

Brugere bevarer ejerskabet af deres input og prompter, men output ejerskab er mere komplekst. Gemini gør dette ikke klart i sine vilkår. Mange lovgivninger anerkender ikke intellektuelle ejendomsrettigheder til maskiner. Det er imidlertid tvivlsomt at hævde, at outputtet er "menneskeskabt", selvom brugeren ejer inputtet.

Nøjagtighed og pålidelighed

Brug altid diskretion, når du stoler på Gemini for nøjagtige oplysninger. Dens Servicevilkår angiver, at nøjagtighed ikke automatisk bør antages af brugeren. Derfor bør du faktatjekke alt indhold genereret fra Gemini. 

Virksomhedsejere bør aldrig offentliggøre et output fra Gemini uden at krydshenvise, gennemgå for opdateringer og tjekke med eksperter for nøjagtighed. Ellers risikerer de at offentliggøre vildledende oplysninger, som kan have omdømmemæssige eller juridiske konsekvenser.

Sikkerhed og fortrolighed

Google (ejeren af ​​Gemini) giver ingen oplysninger i sin privatlivspolitik om, hvordan den håndterer fortrolige data.

Brug

Google angiver intet i sine servicevilkår om, hvorvidt indhold genereret af Gemini kan bruges til kommercielle formål. Det forklarer begrænsninger for ting som intellektuelle ejendomsrettigheder men intet specifikt til AI-genereret indhold.

I øjeblikket kræver ingen lovgivning, at ChatGPT offentligt erklærer, hvad dens model er trænet i. Så fordi den ikke afslører sine kilder, kan vi ikke vide, om ChatGPT leverer eller behandler indhold, der er beskyttet af love om ophavsret. Hvis nogen identificerer ophavsretligt beskyttet indhold fra ChatGPT, de kan fremsætte et krav for at fjerne dette indhold.

ChatGPTs vilkår angiver, at brugerinput, selvom det er ophavsretligt beskyttet, bruges til at forbedre servicen og træne modellen; og brugeren kan ikke fravælge dette. ChatGPTs Vilkår siger, at en bruger ejer alt input- og outputindhold (hvis inputindholdet allerede er brugt lovligt), men det garanterer ikke, at brugeren ejer ophavsretten til det input- og outputindhold. Desuden brugere kan ikke videregive noget fra ChatGPT som 'menneskeskabt'.

Nøjagtighed og pålidelighed

Brugere skal bekræfte alle oplysninger fra ChatGPT. Det er fordi ChatGPT påtager sig intet ansvar for at give nøjagtige oplysninger, opdateret indhold. I henhold til afsnittet om ansvarsfraskrivelse, brugeren påtager sig alle risici for nøjagtighed, kvalitet, pålidelighed, sikkerhed og fuldstændighed. Bekræft derfor altid fakta fra ChatGPT; krydsreferencer, gennemgå for opdateringer, og tjek også med eksperter for nøjagtighed. Virksomhedsejere kan stå over for juridiske eller omdømmemæssige konsekvenser, hvis de ikke bekræfter ChatGPT-indhold for nøjagtighed før offentliggørelse. 

Sikkerhed og fortrolighed

ChatGPT indsamler oplysninger fra input - herunder personlige oplysninger - for potentielt at træne sine modeller (i henhold til fortrolighedspolitikken). Brugeren kan fravælge. Situationen ændrer sig, hvis data sendes via API-forbindelser (ChatGPT Enterprise, Team osv.); det er fordi ChatGPT bruger ikke input fra erhvervskunder at træne modeller. ChatGPT har sikkerhedsforanstaltninger på plads, men adresserer ikke eksplicit ansvaret for et sikkerhedsbrud. Det hele afhænger af regionale love. 

Brug

ChatGPT-brugere ejer deres input og output indhold; brugerne skal derfor sikre sig, at indholdet ikke overtræder nogen love. Brugere kan ikke hævde, at indholdet er menneskeskabt, men du behøver heller ikke sige, at det er AI-genereret. Så længe brugerne følger regionale love og brugsbetingelserne, kan ChatGPT-indhold bruges til kommercielle formål, på sociale medier, til betalt annoncering og andre kanaler. Det anbefales, at du tjekker fakta, laver referencer og overholder love, før du udgiver indhold fra ChatGPT. 

Hverken privatlivspolitikken eller vilkårene angiver, om DeepSeeks AI-værktøj er blevet trænet i ophavsretligt beskyttet materiale. Hvad mere er, giver de heller ingen garantier for, at outputtet ikke krænker nogens ophavsret. Det fremgår af DeepSeeks brugsbetingelser brugere bevarer rettighederne til deres input (prompter), men dette betyder ikke nødvendigvis, at de er ophavsretligt beskyttet i første omgang, så brugere bør tage skridt til at sikre, at det, de bruger som prompter, ikke er en andens intellektuelle ejendom.

Betingelserne angiver også udtrykkeligt, at brugeren er ansvarlig for alle input og tilsvarende output, så med det i tankerne bør brugere uafhængigt verificere disse ved at søge juridisk rådgivning og/eller bruge copyright-databaser. For eksempel US Copyright Office Offentlige Katalog giver brugere mulighed for at søge efter registrerede værker i USA, mens Googles omvendt billedsøgning hjælper med at kontrollere, om et billede tidligere er blevet offentliggjort eller ophavsretligt beskyttet.

Nøjagtighed og pålidelighed

DeepSeeks vilkår for brug siger, at output er AI-genereret, og derfor kan indeholde fejl og/eller udeladelser. Det refererer specifikt til medicinske, juridiske og økonomiske spørgsmål som brugere kan spørge DeepSeek om, og hvordan DeepSeek's output ikke udgør rådgivning. Men mere bredt, det siger det samme om 'faglige spørgsmål', som kunne være næsten alt - fra marketing og forskning til teknologi og uddannelse og videre - og at output ikkerepræsentere holdninger fra enhver professionelt felt.' Brugere bør derfor uafhængigt verificere alle DeepSeeks output for nøjagtighed.

Sikkerhed og fortrolighed

DeepSeeks privatlivspolitik forklarer, at brugerinput behandles for at generere output, men også til forbedre DeepSeeks service. Dette inkluderer 'træning og forbedring af [deres] teknologi'. Brugere bør derfor være forsigtige med at indtaste følsomme oplysninger, og selvom DeepSeek har 'kommercielt rimeligtforanstaltninger, der er på plads for at beskytte de data og informationer, der bruges som input, giver det ingen absolutte garantier. DeepSeeks vilkår siger, at de ikke offentliggør input eller output i offentlige fora, men nogle kan blive delt med tredjeparter.

Brug

Alt indhold, som brugere genererer gennem DeepSeek, kan bruges til kommercielle formål, men på grund af gråzoner omkring plagiat og nøjagtighed, bør brugere tage skridt til at verificere indholdet, før de bruger det på denne måde. DeepSeeks Servicevilkår refererer ikke til nogen begrænsning med hensyn til, hvor i verden brugere kan udgive dette indhold, men de angiver klart, at brugere skal erklære det som AI-genereret "for at advare offentligheden om indholdets syntetiske natur".

Canva er ikke juridisk forpligtet til at afsløre sine kilder til træningsdata. Derfor ved vi ikke, om ophavsretligt beskyttet materiale bliver brugt. Brugeren ejer alt input- og outputindhold (ikke Canva), men Canva kan bruge dette indhold til at forbedre sine tjenester. 

Nøjagtighed og pålidelighed

Canva bjørne intet ansvar for indholdets nøjagtighed. Brugeren skal altid verificere fakta. 

Sikkerhed og fortrolighed

Canva bruger inputindhold til at træne sin model. Det er brugerens ansvar for at undgå at bruge fortrolige eller personlige oplysninger til input. Canva forsøger at filtrere sådanne input til modeltræning, men der er ingen garantier. Canvas AI-værktøj er ikke ansvarlig for sikkerhedsproblemer forårsaget af brugeren.

Brug

Canva-brugere kan bruge genereret indhold til kommercielle formål. Der er betingelser, dog gerne ikke udgive vildledende indhold. Virksomheden har en liste over forbudte genstande, under et afsnit med titlen "Vær et godt menneske."

I lighed med ChatGPT erklærer DALL-E ikke kilder til sin modeltræning. Hvis du derimod finder ophavsretligt beskyttet indhold, vil du kan fremsætte krav om fjernelse. Det er svært at kontrollere, om DALL-E krænker en ophavsret, da ingen lovgivning kræver, at DALL-E afslører sine datakilder. Brugerinput i henhold til vilkårene, kan bruges til at træne DALL-E's model - også selvom det er ophavsretligt beskyttet indhold. Brugeren kan fravælge dette.  

DALL-E brugernes eget input og output indhold (ikke DALL-E), men det betyder ikke, at brugeren har ophavsret til det nævnte indhold. Også brugere kan ikke påstå, at DALL-E-indhold er menneskeskabt.

Nøjagtighed og pålidelighed

DALL-E bjørne intet ansvar for unøjagtigt indhold. Dens vilkår overfører alt ansvar til brugeren. Disse forpligtelser omfatter indholdets pålidelighed, nøjagtighed, kvalitet, sikkerhed og fuldstændighed. Så inden udgivelsen, brugere bør altid krydsreferencer, gennemgå for opdateringer, verificere fakta og tjekke med eksperter, da offentliggørelse af falske oplysninger kan føre til omdømmemæssige eller juridiske konsekvenser. 

Sikkerhed og fortrolighed

Privatlivspolitikken og vilkår og betingelser fra DALL-E omhandler aldrig eksplicit ansvar i tilfælde af et sikkerhedsbrud. DALL-E har dog sikkerhedsforanstaltninger på plads. Hvem der bærer ansvaret i tilfælde af et hack afhænger af regionale love.

DALL-E indsamler en brugers input til modeltræning, selv personlige oplysninger, men du kan fravælge dette. Med API'et håndterer DALL-E imidlertid inputdata anderledes; den bruger ikke data fra forretningsbrugere til at træne sine modeller

Brug

brugeren ejer DALL-E input og output indhold; de skal også sikre, at indholdet ikke overtræder nogen love eller DALL-E-vilkårene. Du kan ikke hævde, at indhold fra DALL-E er menneskeskabt, men du behøver heller ikke sige, at det er AI-genereret. 

Du kan bruge DALL-E til kommercielle formål, så længe du følger alle love og DALL-E vilkårene. Reglerne kan ændre sig, men i skrivende stund er brugere velkomne til at offentliggøre DALL-E indhold på sociale medier, i annoncer og på andre kanaler. Brugere bør altid lave korrekte referencer og faktatjek nøjagtighed for at undgå at overtræde nogen love.

Bing har ingen forpligtelse til at dele sine datatræningskilder, hvilket gør det meget vanskeligt at finde ud af, om Bing AI utilsigtet bruger ophavsretligt beskyttet indhold. Selvom det er vanskeligt at identificere, kan brugere gøre krav på ophavsretligt beskyttet indhold. Microsoft Services Agreement siger, at Bing AI tager brugerinput og -output for at forbedre sin model, men der er intet formelt på plads for at forhindre tyveri af intellektuel ejendom.

Serviceaftalen siger, at brugere giver Microsoft en verdensomspændende og royaltyfri intellektuel ejendomslicens til at bruge dit indhold. Desuden Bing/Microsoft tager brugerinput til at træne AI-modeller.

Nøjagtighed og pålidelighed

Microsoft tilbyder ingen garantier for indholdets nøjagtighed eller aktualitet fra sine AI-tjenester. Derfor bør du faktatjekke alt fra Microsofts AI-værktøjer, især hvis du er en virksomhedsejer, der ønsker at undgå eventuelle omdømmemæssige og juridiske konsekvenser. 

Sikkerhed og fortrolighed

Microsofts AI-værktøjer (inklusive Bing AI) bruge personlige og fortrolige brugerdata til at træne sine modeller. Dens serviceaftale dækker ikke AI-genereret indhold; i stedet forsøger den at flytte alt AI-indholdsansvar til brugeren. Microsoft påtager sig heller ikke noget ansvar for sine kunders privatliv og sikkerhedspraksis. Kort sagt, hvis dine data bliver brudt, mens du bruger Bing AI, er det dit problem, ikke Microsofts.  

Brug

Microsoft gør ikke krav på ejerskab af brugerindhold, men det regulerer ikke specifikt AI-genereret indhold, hvor ejerskabet er usikkert. Tjenesteaftalen lader folk bruge indhold til kommercielle formål med nogle væsentlige betingelser: du skal acceptere, at AI-genereret indhold mangler menneskelig kreativitet, så det kan ikke hævdes som intellektuel ejendomsret; du må heller ikke krænke andres immaterielle rettigheder. Kort sagt kan du ikke bruge andres immaterielle rettigheder, men uanset hvad du laver med Bing er det nok ikke din egen intellektuelle ejendom.

Quillbot har ingen forpligtelse til at afsløre kilder, den bruger til at træne modeller. Imidlertid forsøger virksomheden interessant nok at regulere en unik situation: hvad nu hvis kilden til modeltræning er AI's output? Quillbot forsøger i det væsentlige at minimere potentialet for ophavsretligt beskyttet output, men siger, at der stadig er en chance for, at output er ophavsretligt beskyttet, hvis brugere indtaster ophavsretligt beskyttet indhold. For at gøre tingene mere forvirrende, forsøger Quillbot at dække alle områder ved at sige, at brugerne giver Quillbot en ubegrænset, underlicenserbar licens, mens de også hævder, at brugerne ejer alle deres output. 

Nøjagtighed og pålidelighed

Quillbot bjørne intet ansvar for nøjagtighed eller pålidelighed. Brugere bør være meget forsigtige og verificere alle fakta fra Quillbot. 

Sikkerhed og fortrolighed

Quillbot har foranstaltninger til beskyttelse af brugernes privatliv, men det kan stadig ende med at behandle personoplysninger. Der er særlige beskyttelser for børns privatliv. Ansvaret for tab af data fra et hack håndteres fra sag til sag. Quillbot siger, at brugeren skal tage skridt til at forhindre, at deres personlige data bliver hacket, og at Quillbot har databeskyttelseselementer på plads. 

Brug

Quillbot-brugere kan udgive genereret indhold til kommercielle formål, men du skal muligvis følge nogle regler, såsom ikke at udgive skadeligt eller vildledende indhold. Quillbots Betingelser sig ikke, at du skal erklære, at indholdet er AI-genereret. Kort sagt brugeren kan udgive indhold genereret af Quillbot så længe det ikke overtræder nogen love eller rettigheder. 

Pixlr afslører ikke sine kilder til AI-modeltræning, da der ikke er nogen juridisk forpligtelse for dem til at gøre det. Dets vilkår angiver, at brugeren ejer indholdet, men brugerne også give en licens til Pixlr til at bruge indholdet. Dette er et forsøg på at minimere brugen af ​​ophavsretligt beskyttet indhold. 

Nøjagtighed og pålidelighed

Pixlr påtager sig intet ansvar for unøjagtigheder i dets AI-genererede indhold. Brugere bør være omhyggelige med at faktatjekke alt fra Pixlr. 

Sikkerhed og fortrolighed

Pixlr tager brugerinput til AI-modeltræning. Det overfører byrden til brugeren at være forsigtig med at indtaste personlige eller fortrolige oplysninger. Pixlr fraskriver sig sit ansvar for at filtrere nogle oplysninger fra sine træningsdata, selvom de bruger nogle filtre til at blokere personlige eller fortrolige oplysninger. Det hævder Pixlr intet ansvar for sikkerhedsproblemer forårsaget af brugernes handlinger

Brug

Brugere kan udgive AI-genereret indhold lavet gennem Pixlr til kommercielle formål (selvom nogle betingelser gælder). Vilkårene kræver ikke, at du angiver, at noget er AI-genereret. Brugere er dog stadig ansvarlige for at overtræde rettigheder eller love. 

midt på rejsen brugere giver virksomheden rettigheder til alle aktiver lavet gennem det, men brugeren ejer også alle aktiverne. Der er undtagelser, såsom hvordan du ikke kan kræve ejerskab, hvis du lige opskaleret et billede fra en original skaber.

Nøjagtighed og pålidelighed

Midjourney påtager sig intet ansvar for pålideligheden og nøjagtigheden af dens indhold. Brugere bør derfor være ekstra forsigtige med at verificere fakta og kontrollere pålideligheden. 

Sikkerhed og fortrolighed

Midjourney træner sin model med brugerinput, selvom den inkluderer personlige eller fortrolige data. Midjourney hævder, at brugeren skal være forsigtig med følsomme data, så det er ikke deres problem. Virksomheden forsøger at filtrere visse oplysninger fra til modeltræning, men det er ikke påkrævet. Midjourney påtager sig intet ansvar for sikkerhedsproblemer, der kan opstå som følge af en brugers handlinger. 

Brug

Midjourney-brugere kan udgive genereret indhold til kommercielle formål. Nogle betingelser, såsom kravet om at abonnere på Pro-versionen hvis virksomheden tjener mere end 1 mio. USD om året, anvende. I skrivende stund behøver brugerne ikke at hævde, at noget er AI-genereret fra Midjourney, selvom der er lovgivning i gang for at ændre dette. Brugere kan generelt bruge ethvert Modjourney-indhold, hvis det ikke overtræder nogen rettigheder eller love. 

Clipchamp er et Microsoft-produkt, så det påstår ingen forpligtelse til at dele datakilder til modeltræning. Derfor er det svært at sige, om AI-værktøjet utilsigtet bruger ophavsretligt beskyttede data. Nogen skal identificere krænkelsen af ​​ophavsretten for at fremsætte et krav, hvilket er usandsynligt. Microsoft Services Agreement siger det kan bruge brugerinput og -output til at forbedre tjenester, og Microsoft regulerer ikke spørgsmål om intellektuel ejendom. Også, brugere giver Microsoft en verdensomspændende royaltyfri licens til intellektuel ejendom

Nøjagtighed og pålidelighed

Clipchamp og Microsoft garanterer intet med hensyn til nøjagtigheden eller aktualiteten af ​​dets AI-værktøjer, så brugere bør verificere alle fakta før offentliggørelse. Dette gælder især for virksomhedsejere, som kan stå over for juridiske og omdømmemæssige konsekvenser. 

Sikkerhed og fortrolighed

Clipchamp og Microsoft bruge personlige og fortrolige data til modeltræning. Microsoft forsøger at flytte ansvaret for alle indholdsproblemer til brugeren. Det samme gælder for hacking og sikkerhedsbrud; det er brugerens ansvar, hvis der sker noget. 

Brug

Clipchamp og Microsoft styrer væk fra at regulere AI-genereret indhold, aldrig hævde, at Microsoft ejer indholdet. Teknisk siger Microsoft, at brugeren ejer det, men uden de intellektuelle ejendomsrettigheder. Brugeren kan udgive Clipchamp-indhold til kommercielle formål med to betingelser: du må ikke krænke intellektuelle ejendomsrettigheder eller hævde, at du har intellektuelle ejendomsrettigheder til genereret indhold. 

The Looka Betingelser oplyse, at virksomheden ikke har nogen forpligtelser til at dele datatræningskilder, så det gør de ikke. Brugere bærer alle risici, når de bruger Looka-genereret indhold. 

Nøjagtighed og pålidelighed

Looka påtager sig intet ansvar for nøjagtigheden og pålideligheden af ​​outputtet fra dets AI-værktøjer. Brugere bør verificere alle fakta og kontroller for pålidelighed. 

Sikkerhed og fortrolighed

Looka bruger inputdata - selv potentielt personlige og fortrolige data - til at træne sin model, så brugeren er ansvarlig for ikke at bruge denne type data i deres input. Looka forsøger at filtrere sådanne data, men de hævder, at de ikke behøver det. Derudover er alle sikkerhedsproblemer brugerens byrde. 

Brug

Looka-brugere kan bruge AI-genereret indhold til kommercielle formål, men de skal muligvis følge betingelser eller betale et gebyr. Brugere behøver ikke at mærke deres genererede indhold som AI-genereret. Brugere bør undgå at udgive genereret indhold, der overtræder rettigheder eller love. 

Det er ikke muligt at sige, om Speechify træner sin model på ophavsretligt beskyttet materiale. Vi ved det simpelthen ikke. Speechifys vilkår anbefaler ikke at bruge ophavsretligt beskyttet materiale til input, hvilket tyder på, at nogle output kan have ophavsretligt beskyttede data. Speechify hævder ikke at bære noget ansvar for dette

Nøjagtighed og pålidelighed

Speechify, ifølge sin Betingelser, tager intet ansvar for nøjagtigheden af ​​dets output. Brugere bør altid tjekke for aktualitet, pålidelighed og nøjagtighed med Speechify. 

Sikkerhed og fortrolighed

Tale overdrager alt ansvar til brugeren, når det kommer til at indtaste følsomme eller personlige data. Værktøjet bruger input til at træne modeller, så brugere bør være forsigtige. Speechify behøver ikke nødvendigvis at filtrere følsomme eller personlige data, men det forsøger det med nogle filtre. Alt ansvar for sikkerhedsproblemer overføres til brugeren. 

Brug

Speechify-brugere kan bruge output til kommercielle formål, med nogle betingelser som at skulle abonnere eller få licens. Brugere behøver ikke at erklære, at Speechify-indhold er AI-genereret. Speechify-brugere bør dog aldrig overtræde rettigheder eller love, når de udgiver Speechify-output. 

Kapwingen Betingelser pålægger brugeren al intellektuel ejendomsret og nøjagtighedsansvar. Alle brugere giver Kapwing en ikke-eksklusiv licens, men brugerne bevarer ejerskabet af indholdet. Kapwing oplyser intet om, hvorvidt den bruger inputdata til modeltræning. 

Nøjagtighed og pålidelighed

Kapwing lægger alt nøjagtighedsansvar på brugeren, især eventuelle juridiske og omdømmemæssige konsekvenser.

Sikkerhed og fortrolighed

Kapwing-brugere påtager sig alle risici, når de vælger at indtaste fortrolige oplysninger i deres AI-værktøj. Det giver heller ingen garanti eller ansvar for tjenestens sikkerhed.

Brug

Du kan udgive Kapwing-indhold kommercielt, men Kapwing råder brugerne til at være forsigtige. Deres vilkår siger ikke, om brugerne skal erklære, at output fra Kapwing er AI-genereret.

Otter.ai oplyser, at det ikke tillader ophavsretskrænkende materiale i sine tjenester, men det er svært at verificere denne påstand. Brugere bevarer ejerskab og ophavsrettigheder til input og poster i Otter.ai, men Otter.ai siger brugerne er ansvarlige forum ikke indtaste tidligere ophavsretligt beskyttet indhold. Otter.ai kan også bruge input til maskinlæring.

Nøjagtighed og pålidelighed

Otter.ai udelukker sig selv fra ansvar med hensyn til nøjagtighed og pålidelighed, så brugere bør altid verificere indholdet. Brug af faktuelt vildledende eller ukorrekte oplysninger kan forårsage juridiske eller omdømmeproblemer for brugeren. 

Sikkerhed og fortrolighed

Al risiko for at afsløre fortrolige oplysninger på Otter.ai tilhører brugeren. 

Brug

Brugere kan udgive med kommercielle hensigter da brugerne er ejere af indhold fra Otter.ai. Når det er sagt, har AI-genereret indhold ikke klare ejerskabsregler. Otter.ai oplyser også dets transskriberede noter kan søges og deles.

PhotoRoom kunne tage brugerinput og -output til modeltræning, men der er begrænset information om, hvorvidt tjenesten gør det eller ej. PhotoRoom-vilkårene minder brugerne om at undgå at indlæse ophavsretligt beskyttet indhold. Brugerne bærer alt ansvar for det. 

Nøjagtighed og pålidelighed

Fotorum påtager sig intet ansvar for nøjagtigheden eller pålideligheden af ​​dets AI-genererede indhold. Brugere bør køre deres egne kontroller for at bekræfte dette.

Sikkerhed og fortrolighed

PhotoRoom bruger input til at træne sine modeller. Brugere er ansvarlige, når de indsætter fortrolige oplysninger or personlige oplysninger. Tjenesten forsøger at filtrere disse typer input, men påstår ikke noget krav om at gøre det. Brugere bærer alt ansvar for sikkerhedsproblemer. 

Brug

PhotoRoom indhold kan bruges til kommercielle formål, men nogle betingelser kan være gældende, såsom tilmelding til et abonnement. Vilkårene angiver, at du ikke behøver at markere indhold som AI-genereret. Brugere kan se andre konsekvenser, hvis de overtræder rettigheder eller love. 

Ansvarsfraskrivelse

Disse oplysninger er kun til generelle informationsformål og bør ikke opfattes som juridisk rådgivning. E-handelsplatforme påtager sig intet ansvar for fejl eller udeladelser. Rådfør dig med en passende juridisk professionel for råd og vejledning skræddersyet til dine specifikke behov og omstændigheder.

Konklusion

Allestedsnærværelsen af ​​AI gør det mere og mere sandsynligt for os alle at bruge værktøjer og apps baseret på denne teknologi - men mange af os har ikke den luksus, det tager at læse deres vilkår og betingelser. 

I 2017, professionelle tjenester netværk Deloitte fandt det 91% af forbrugerne "accepterer gerne juridiske vilkår og betingelser uden at læse dem" — stigende til 97 % i alderen 18 til 34 år.

I betragtning af hvor mange AI T&C'er vi vurderede med lave læsbarhedsscore, ser det ud til at uigennemtrængeligheden af ​​disse dokumenters juridiske afskrækker brugere fra selv at forsøge at forstå dem. 

Vi arbejdede sammen med en advokat om at parse dokumenterne for os, men det er tvivlsomt, om det skulle være nødvendigt.

Vi håber, at denne forskning – herunder dens læsbarhedsvurderinger og Josilda Ndreajs ekspertise i de vilkår og betingelser, du skal være opmærksom på – vil hjælpe dig med at vælge, hvilke AI-apps og værktøjer du skal bruge. 

Metode og kilder

Hvordan vi udførte undersøgelsen

Startende med en startliste med omkring 90 AI-værktøjer og -apps, samlede vi først hvert værktøjs juridiske dokumentation, fra vilkår og betingelser til privatlivspolitikker. Vi registrerede derefter ordlængderne af disse dokumenter og beregnede deres læsbarhedsscore ved hjælp af Flesch-Kincaids karaktersystem. Dernæst fik vi hjælp fra en juridisk ekspert, Josilda Ndreaj (LLM), som gennemgik et udvalg af disse juridiske dokumenter og identificerede nøglepunkter, som brugerne bør være opmærksomme på.

For omkring 30 af de AI-værktøjer, der har mobilappversioner tilgængelige, søgte vi hver i Apple App Store og registrerede deres privatlivsetiketter vist på deres fortegnelser. Disse er opdelt i 14 kategorier af data, der kan indsamles fra brugere, og til hvilket formål. For at beregne, hvilke AI-apps, der indsamlede flest data, målte vi, hvor mange af de 14 mulige kategorier, disse apps sporede deres brugere på tværs af. 

Det er vigtigt at bemærke, at disse 14 kategorier er opdelt yderligere i individuelle datapunkter. For eksempel inkluderer 'Kontaktinfo' fem datapunkter, som er; 'Navn', 'E-mail-adresse', 'Telefonnummer', 'Fysisk adresse' og 'Andre brugerkontaktoplysninger'. For at finde ud af, hvilke apps der indsamler flest individuelle datapunkter, skal du tage et kig på den sidste kolonne i hver af tabellerne.

Nogle apps vil indsamle flere individuelle datapunkter end dem, der vises højere på ranglisten. Dette skyldes, at vores rangeringsmetodologi overvejer, hvilke apps der samlet indsamler data på tværs af de fleste kategorier, hvilket tyder på et bredere og derfor mere 'komplet' billede af brugerdata snarere end dybden af ​​information, de indsamler i hver kategori. 

Kilder

Anmodninger om rettelser

Vi opdaterer med jævne mellemrum denne forskning.

Hvis du er ejer af et af de AI-værktøjer, der er inkluderet i denne forskning, og du gerne vil udfordre oplysningerne på denne side, er vi villige til at opdatere dem med forbehold for vores gennemgang af de beviser, du fremlægger. Når vi kontakter os i denne forbindelse, beder vi venligst om: 

  • forretningsdokumenter, der bekræfter din legitimitet (f.eks. stiftelsescertifikat eller registreringsdokumenter) 
  • oplysningerne på denne side, som du mener er forældede (vær venlig)
  • hvordan det skal opdateres og hvorfor, med links til dokumentation, der understøtter dette (f.eks. ændringer til servicevilkår)

Kontakt os venligst på [e-mail beskyttet] med emnelinjen: 'Korrektionsanmodning: AI-værktøjsundersøgelse', plus navnet på det AI-værktøj, du kontakter os om.

Bogdan Rancea

Bogdan Rancea er medstifter af Ecommerce-Platforms.com og hovedkurator for ecomm.design, et udstillingsvindue for de bedste e-handelswebsteder. Med over 12 år i det digitale handelsområde har han et væld af viden og et skarpt øje for gode online detailoplevelser. Som e-handels-teknolog tester og anmelder Bogdan forskellige platforme og designværktøjer som f Shopify, Figma og Canva og giver praktiske råd til butiksejere og designere.