Agter die fynskrif: Verstaan ​​KI-toepassings en privaatheid

As jy inteken op 'n diens vanaf 'n skakel op hierdie bladsy, kan Reeves and Sons Beperk 'n kommissie verdien. Sien ons etiese verklaring.

Kunsmatige intelligensie het vinnig deel van die hedendaagse tydsgees geword - tog bly etiese oorwegings rondom die onderwerp onopgelos. Hoeveel gebruikers is ten volle bewus van waarvoor hulle aansluit?

Hier, deur die bepalings en voorwaardes en privaatheidsbeleide agter die gewildste KI-nutsgoed en -toepassings in te pas, pak E-handelsplatforms uit wat u moet weet wanneer u hierdie nutsmiddels vir u daaglikse besigheidsbehoeftes gebruik.

Ons het die data en persoonlike inligting wat hierdie instrumente versamel (en vir watter doel) ontleed om jou te help om te bepaal watter AI gereedskap, sagteware en platforms is die geskikste vir jou beoogde gebruik. Ons het ook 'n regskenner geraadpleeg om die jargon af te breek agter hierdie gereedskap se bepalings en voorwaardes.

Ons het die Apple App Store-privaatheidsetikette vir ongeveer 30 beskikbare mobiele toepassingweergawes van gewilde KI-nutsgoed ontleed om te verstaan ​​watter een jou data insamel, en hoekom. 

Die data wat van gebruikers ingesamel word (en die doel daarvan) word in 14 kategorieë verdeel, wat dit moontlik maak om vas te stel watter toepassings die meeste gebruikersdata insamel en opspoor.

Vir verdere besonderhede, kyk na die metodologie-afdeling aan die einde van hierdie bladsy.

Watter data versamel hierdie KI-toepassings?

Die KI-instrumente wat in hierdie navorsing geassesseer is, versamel data van verskillende tipes. Sommige hiervan fokus op persoonlike besonderhede oor gebruikers — van skermname en bankbesonderhede, tot hul gesondheid en fiksheid, en selfs sensitiewe inligting soos ras/etnisiteit, seksuele oriëntasie, geslagsidentiteit en politieke opinies. 

Ander hou verband met inhoud wat deur gebruikers geskep is (soos e-posse en boodskappe, foto's, video's en klankopnames), of hoe gebruikers met die produk self interaksie het, soos hul inprogram-soekgeskiedenis of watter advertensies hulle gesien het. Nog onpersoonliker is die diagnostiese inligting wat ingesamel word om ongelukdata of energieverbruik te wys.

Waarom samel hierdie KI-toepassings data in?

Daar is verskillende redes waarom toepassings data insamel, waarvan sommige as meer regverdigbaar as ander beskou kan word — byvoorbeeld, biometrie of kontakinligting kan gebruik word om die gebruiker se identiteit te verifieer.

Net so kan toegang tot sekere data vereis word vir 'n toepassing om korrek te funksioneer, insluitend om bedrog te voorkom of skaalbaarheid en werkverrigting te verbeter.

Meer spesifiek, boodskapprogramme benodig toegang tot kontakte, foonkameras en mikrofone om oproepe toe te laat, terwyl geoligging nodig is vir taxi- of afleweringsprogramme.

Waarskynlik minder noodsaaklike redes om data in te samel, sluit in advertensies of bemarking deur die toepassing se ontwikkelaar (byvoorbeeld om bemarkingskommunikasie aan jou gebruikers te stuur); om derdeparty-advertensies moontlik te maak (deur data van ander toepassings na te spoor om byvoorbeeld geteikende advertensies na die gebruiker te rig); en die ontleding van gebruikersgedrag vir doeleindes, insluitend die assessering van die doeltreffendheid van bestaande kenmerke of die beplanning van nuwes.

Hallo mobiele gebruiker 👋 Die tabelle hieronder kan wees horisontaal gerol om al die data te sien, maar hierdie bladsy lyk beslis beter op Desktop.

KI-programme wat jou data insamel om met derdeparty-adverteerders te deel

Kolomopskrifte met knoppies is sorteerbaar.
AI app % data gedeel met ander Op die geskiedenis Kontakbesonderhede identifiseerders Ligging Ander data aankope Soekgeskiedenis Gebruikdata Aantal datapunte wat ingesamel is
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistent 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
baarmoeder 14% 1 1 2
Klets GPT 7% 1 1
Genie AI 7% 1 1
Lens 7% 1 1
spreek 7% 1 1
sterretjie 7% 1 1

Van al die KI-toepassings wat by ons navorsing ingesluit is, Canva, 'n grafiese ontwerpinstrument, versamel die meeste data van sy gebruikers vir derdeparty-advertensiedoeleindes - ongeveer 36%. Daarenteen versamel die vyf toepassings wat die minste data vir hierdie doel insamel net meer as 7%.

Die data wat Canva se toepassing van jou insamel en met derde partye deel, sluit jou soekgeskiedenis, ligging, e-posadres en ander inligting in wat in die tabel hierbo gewys word. 

Die gamified-taalleer-toepassing volg Canva noukeurig Duolingo (~36%), Google Assistent (~21%), en Microsoft se Bing (~14%) — dit alles deel ook jou data met derde partye

Slegs van die vyf toepassings wat die minste data insamel sterretjie ('n beeld-opwekker) beperk hom tot die deel van gebruiksdata.

KI-programme wat jou data vir hul eie voordeel insamel

Kolomopskrifte met knoppies is sorteerbaar.
artikels % data wat vir toepassing se eie voordeel ingesamel is Op die geskiedenis Kontakbesonderhede identifiseerders Ligging aankope Soekgeskiedenis Gebruikdata Aantal datapunte wat ingesamel is
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistent 36% 1 2 2 1 2 8
Fotokamer 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
sterretjie 14% 2 1 3
Bing 14% 1 1 2
Lens 14% 1 1 2
Otter 7% 2 2
Jouper 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
spreek 7% 1 1
baarmoeder 7% 1 1

Canva is ook boaan die grafiek vir KI-toepassings wat gebruikersdata vir hul eie advertensie- of bemarkingsdoeleindes insamel. Om dit te doen, versamel Canva ongeveer 43% van hul gebruikers se data.

In die derde plek, Amazon Alexa versamel 36% van jou data vir dieselfde doel. Dit sluit jou e-posadres, fisiese adres, telefoonnommer, soekgeskiedenis en aankoopgeskiedenis in, plus vyf ander datapunte. Google Assistent versamel en deel dieselfde persentasie data om hierdie rede, hoewel oor agt individuele datapunte, in vergelyking met die tien wat Amazon Alexa insamel.

Die teks-na-spraak-stemgenerator, Speechify, is een van die toepassings wat die minste data insamel. Volgens sy Apple App Store-lysinskrywing se privaatheidsetikette, versamel Speechify net een datapunt tot sy eie voordeel; jou toestel-ID.

KI-programme wat jou data vir enige doel insamel

Kolomopskrifte met knoppies is sorteerbaar.
artikels % data ingesamel Op die geskiedenis Kontakbesonderhede kontakte Diagnose Finansiële inligting Gesondheid en fiksheid identifiseerders Ligging Ander data aankope Soekgeskiedenis Sensitiewe inligting Gebruikdata Gebruikersinhoud Aantal datapunte wat ingesamel is
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistent 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Otter 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA Praat 43% 2 6 6 3 3 3 23
Fotokamer 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
Klets GPT 36% 4 8 5 7 2 26
Verwarring AI 36% 6 6 2 1 6 21
1 / 2

Alle KI-modelle vereis een of ander vorm van opleiding deur masjienleer - wat beteken dit hulle het data nodig.

As ons wil hê dat KI-instrumente moet verbeter en nuttiger word, kan ons privaatheid gesien word as 'n noodsaaklike afweging teen die verskaffing van hierdie data.

Die vraag waarheen die lyn tussen nut en uitbuiting geteken moet word, en hoekom, is 'n netelige een.

Gegewe sy huidige bekendheid, is dit die moeite werd om DeepSeek aan te spreek. Sy aanbieding in die Apple App Store verklaar dat DeepSeek nie gebruikersdata vir sy eie voordeel insamel nie (byvoorbeeld DeepSeek se eie bemarking en advertensies) of om met derde partye te deel.

Maar dit is die moeite werd om daarop te wys Hulle Privaatheidsbeleid bepaal anders (meer hieroor later). 

Die DeepSeek-app versamel self 50% van sy gebruikers se data, wat DeepSeek se Analytics- en App-funksionaliteit dien. Ter vergelyking, die ChatGPT-app versamel 36%.

Sommige media-afdelings rapporteer kommer oor sekuriteitsrisiko's wat verband hou met DeepSeek se Chinese oorsprong (beide in terme van data-insameling en die moontlike verspreiding van verkeerde inligting) en die ondermyning van Amerikaanse mededingers. Albei sal waarskynlik nie verlig word deur DeepSeek se bepalings en voorwaardes en privaatheidsbeleid, wat rond sou neem 35 minute om te lees, en word gegradeer as "baie moeilik" op die Flesch-Kincaid leesbaarheidskaal.

Ongeag hoe jou data gebruik word, Amazon Alexa samel meer van sy gebruikers se data in as enige ander KI-toepassing by hierdie navorsing ingesluit. Oor die algemeen versamel dit 93% van jou data (of 116 individuele maatstawwe, hoofsaaklik kontakinligting, gebruikerinhoud en gebruiksdata).

Google Assistent kom volgende, versamel 86%, gevolg deur Duolingo, wat insamel 79%.

Aan die ander kant van die skaal, KI-beeldgenerator, Stable Diffusion, versamel geen data nie. Dit is volgens privaatheidsetikette op sy Apple App Store-lysinskrywing.

Terwyl dit waar is dat al generatiewe AI modelle vereis massiewe hoeveelhede data om opgelei te word, hierdie opleiding vind plaas voor die ontwikkeling van spesifieke toepassings. In die meeste gevalle besit toepassingskeppers nie die KI-modelle wat hulle gebruik nie; gebruikersdata-insameling hou dus verband met die funksionaliteit van die toepassing self. Dit kan verduidelik hoekom sommige van die programme wat ons ondersoek het geen inligting in die bostaande tabel het nie.

Navigeer die bepalings en voorwaardes agter KI-nutsgoed

Nou, kom ons kyk na die regsdokumentasie agter verskillende AI-instrumente om uit te vind hoe maklik of moeilik dit is om te lees. Dit is gebaseer op die Flesch-Kincaid-leesgraadvlaktoets.

Hierdie stelsel stel tekste gelyk aan Amerikaanse skoolleesvlakke (van vyfde tot 12de graad), dan Kollege, Kollege Graduate en Professional. Tekste op graad sesde vlak word gedefinieer as “gespreks-Engels vir verbruikers”, terwyl professionele gegradeerde tekste beskryf word as “uiters moeilik om te lees”.

Hoe laer die leesbaarheidtelling, hoe moeiliker is die teks om te lees.

Kolomopskrifte met knoppies is sorteerbaar.
Clipchamp 3 uur 16 minute 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 uur 20 minute 35.4 🤯🤯🤯🤯🤯
veed.io 2 uur 15 minute 37.9 🤯🤯🤯🤯🤯
Facetune 2 uur 4 minute 34.4 🤯🤯🤯🤯🤯🤯
DieB.AI 1 uur 47 minute 31.4 🤯🤯🤯🤯🤯🤯
Otter 1 uur 11 minute 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 uur 9 minute 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 uur 6 minute 30.9 🤯🤯🤯🤯🤯🤯
spreek 1 uur 6 minute 35.0 🤯🤯🤯🤯🤯🤯
Runway 1 uur 2 minute 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

In 2023 het die Britse besigheidsversekeringsmaatskappy Superscript het die eienaars van 500 klein en mediumgrootte ondernemings (KMO's) gepeil om uit te vind wat die meeste van hul tyd verbruik.

Om genoeg te slaap, wat noodsaaklik is vir fisieke en geestesgesondheid en kognitiewe funksie, is veelseggend genoeg, met 'lang ure werk' en 'belastingopgawes uitsorteer'.

'n Derde van die respondente het gevoel dat dit nie moontlik is om al hul administrasie gedurende werksure te doen nie, en het gesê hulle het vier ekstra ure per dag nodig gehad om deur dit alles te kom.

Dit gee 'n gevoel van hoe straf dit kan wees om 'n KMO te bestuur, en dat die tyd wat nodig is om die bepalings en voorwaardes te lees agter die gereedskap waarop hulle staatmaak is nie maklik om te kom nie.

In hierdie konteks is die leestye van 40 minute van die T&V's vir die transkripsie van nutsmiddels soos Otter, Trint en Descript hoogs konsekwent. 

en dit is die veronderstelling dat dit moontlik is om te verstaan die moeilikste bepalings en voorwaardes. Dit is hoekom ons die kundigheid van 'n regskenner gesoek het.

Josilda Ndreaj, 'n regspersoon en gelisensieerde prokureur, het ingewikkelde regsaangeleenthede namens Fortune 500-kliënte opgevolg en raad aan verskeie korporasies verskaf.

Meer onlangs, as 'n onafhanklike konsultant, het sy gefokus op intellektuele eiendomsreg op die kruising van blokkettingtegnologie en kunsmatige intelligensie.

Josilda Ndreaj (LLM) is 'n regsprofessie en gelisensieerde prokureur met kundigheid in Intellektuele Eiendom (IP) reg.

Haar loopbaan as 'n regskonsultant het begin by 'n gesogte internasionale regsfirma wat voorsiening gemaak het vir Fortune 500-kliënte. Hier het Josilda komplekse regsaangeleenthede opgevolg en raad aan verskillende korporasies verskaf.

Gedryf deur belangstellings in innovasie, kreatiwiteit en opkomende tegnologieë, het Josilda daarna onafhanklike konsultasie gewaag en op intellektuele eiendomsreg gefokus deur die kruising met blokkettingtegnologie en kunsmatige intelligensie te dek.

Josilda het twee meestersgraad in die regte; een spesialiseer in siviele en handelsreg van Tirana Universiteit, en die ander fokus op intellektuele eiendomsreg, van Zhongnan Universiteit van Ekonomie en Regte.

As sodanig was Josilda uniek geposisioneer om 'n seleksie van hierdie KI-instrumente se regsdokumente te hersien, haal sleutelpunte uit tot voordeel van diegene van ons wat nie twee meestersgraad in die regte het nie.

Haar opsommings word hieronder uiteengesit:

Tweeling (voorheen Bard) het geen verpligting om bronne van opleiding te verklaar nie, so ons kan nie kyk of dit opgelei is op materiaal met kopiereg nie. Tweeling is nie uitgesluit van aanspreeklikhede van sodanige oortreding nie; as 'n kopieregeienaar klagte aanhangig maak, dra Tweeling 'n mate van verantwoordelikheid. Maar dit is belangrik om daarop te let dat Tweeling opgelei is oor wat die gebruiker dit gee. Hiervoor, Tweeling vereis 'n lisensie van die gebruiker. As die gebruiker instem om daardie lisensie aan Gemini toe te staan, maar hulle (die gebruiker) besit nie eintlik die kopiereg nie, verskuif die verantwoordelikheid na die gebruiker.

Gebruikers behou eienaarskap van hul insette en opdragte, maar uitseteienaarskap is meer kompleks. Tweeling maak dit nie duidelik in sy bepalings nie. Baie wetgewing erken nie intellektuele eiendomsregte van masjiene nie. Dit is egter twyfelagtig om te argumenteer dat die uitset "menslik gegenereer" is, selfs al besit die gebruiker die insette.

Akkuraatheid en betroubaarheid

Gebruik altyd diskresie wanneer jy op Tweeling staatmaak vir akkurate inligting. Sy Diensbepalings bepaal dat akkuraatheid nie outomaties aanvaar moet word nie deur die gebruiker. Daarom moet u alle inhoud wat vanaf Tweeling gegenereer word, feitekontroleer. 

Besigheidseienaars moet nooit 'n uitset van Tweeling publiseer sonder om te kruisverwys, na te gaan vir opdaterings en om met kundiges na te gaan vir akkuraatheid nie. Andersins loop hulle die risiko om misleidende inligting te publiseer, wat reputasie- of regsgevolge kan inhou.

Sekuriteit en vertroulikheid

Google (die eienaar van Gemini) verskaf geen inligting in sy privaatheidsbeleid oor hoe dit vertroulike data hanteer nie.

Gebruik

Google sê niks in sy diensbepalings of inhoud wat deur Gemini gegenereer word vir kommersiële doeleindes gebruik kan word nie. Dit verduidelik beperkings vir dinge soos intellektuele eiendomsregte maar niks spesifiek vir KI-gegenereerde inhoud nie.

Tans vereis geen wetgewing ChatGPT om in die openbaar te verklaar waarop sy model opgelei is nie. Dus, omdat dit nie sy bronne bekend maak nie, kan ons nie weet of ChatGPT inhoud lewer of verwerk wat deur kopieregwette beskerm word nie. As iemand kopiereg-inhoud van ChatGPT identifiseer, hulle kan 'n eis maak om daardie inhoud te verwyder.

ChatGPT se bepalings bepaal dat gebruikersinvoer, selfs al is dit kopiereg beskerm, word gebruik om die diens te verbeter en die model op te lei; en die gebruiker kan nie hieruit onttrek nie. ChatGPT se bepalings sê dat 'n gebruiker besit alle invoer- en uitvoerinhoud (indien die invoerinhoud reeds wettig gebruik word), maar dit waarborg nie dat die gebruiker die kopiereg op daardie invoer- en uitvoerinhoud besit nie. Daarbenewens, gebruikers kan niks van ChatGPT as 'mens-gegenereerde' deurgee nie.

Akkuraatheid en betroubaarheid

Gebruikers moet alle inligting vanaf ChatGPT verifieer. Dis omdat ChatGPT dra geen verantwoordelikheid om akkuraat te verskaf nie, bygewerkte inhoud. Volgens sy Disclaimer of Warranty afdeling, die gebruiker neem alle risiko's van akkuraatheid op, kwaliteit, betroubaarheid, sekuriteit en volledigheid. Verifieer dus altyd feite van ChatGPT; kruisverwysing, hersien vir opdaterings, en maak ook seker met kundiges vir akkuraatheid. Besigheidseienaars kan regs- of reputasiegevolge in die gesig staar as hulle nie ChatGPT-inhoud vir akkuraatheid verifieer voor publikasie nie. 

Sekuriteit en vertroulikheid

ChatGPT versamel inligting vanaf insette - insluitend persoonlike inligting - om moontlik sy modelle op te lei (volgens die Privaatheidsbeleid). Die gebruiker kan onttrek. Die situasie verander as data deur API-verbindings ingedien word (ChatGPT Enterprise, Team, ens.); dit is omdat ChatGPT gebruik nie insette van besigheidskliënte nie om modelle op te lei. ChatGPT het sekuriteitsmaatreëls in plek, maar spreek nie uitdruklik verantwoordelikheid vir 'n sekuriteitskending aan nie. Dit hang alles af van streekwette. 

Gebruik

ChatGPT-gebruikers besit hul invoer- en uitvoerinhoud; die gebruikers moet dus verseker dat die inhoud nie enige wette oortree nie. Gebruikers kan nie beweer dat die inhoud deur mense gegenereer is nie, maar jy hoef ook nie te sê dit is KI-gegenereer nie. Solank as wat gebruikers streekwette en die Gebruiksvoorwaardes volg, kan ChatGPT-inhoud vir kommersiële doeleindes, op sosiale media, vir betaalde advertensies en ander kanale gebruik word. Dit word aangeraai om feite na te gaan, verwysings te maak en by wette te hou voordat u inhoud vanaf ChatGPT publiseer. 

Nóg die Privaatheidsbeleid nóg die Bepalings spesifiseer of DeepSeek se KI-instrument opgelei is op materiaal met kopiereg. Wat meer is, hulle bied ook geen waarborge dat die uitsette nie op enigiemand se kopiereg sal skend nie. DeepSeek se Gebruiksvoorwaardes verklaar dat gebruikers behou regte op hul insette (porboodskappe), maar dit impliseer nie noodwendig dat hulle in die eerste plek kopiereg beskerm word nie, dus moet gebruikers stappe doen om te verseker dat dit wat hulle as boodskappe gebruik nie iemand anders se intellektuele eiendom is nie.

Die Bepalings verklaar ook uitdruklik dat die gebruiker is verantwoordelik vir alle insette en ooreenstemmende uitsette, so met dit in gedagte, moet gebruikers dit onafhanklik verifieer deur regsadvies in te win en/of kopieregdatabasisse te gebruik. Byvoorbeeld, die Amerikaanse kopieregkantoor se openbare katalogus laat gebruikers toe om na geregistreerde werke in die VSA te soek, terwyl Google se omgekeerde beeldsoektog help om te kyk of 'n prent voorheen gepubliseer is of kopiereg beskerm is.

Akkuraatheid en betroubaarheid

DeepSeek se gebruiksvoorwaardes sê dat uitsette KI-gegenereer word, en dus foute en/of weglatings kan bevat. Dit verwys spesifiek na mediese, regs- en finansiële kwessies waaroor gebruikers DeepSeek kan vra, en hoe DeepSeek se uitsette nie advies uitmaak nie. Maar meer in die breë, dit sê dieselfde oor 'professionele kwessies', wat omtrent enigiets kan wees - van bemarking en navorsing tot tegnologie en onderwys en verder - en dat uitsette nie 'verteenwoordig die menings van 'n professionele veld.' Gebruikers moet dus onafhanklik al DeepSeek se uitsette vir akkuraatheid verifieer.

Sekuriteit en vertroulikheid

DeepSeek se privaatheidsbeleid verduidelik dat gebruikersinsette verwerk word om uitsette te genereer, maar ook om verbeter DeepSeek se diens. Dit sluit in 'opleiding en verbetering van [hul] tegnologie'. Gebruikers moet dus versigtig wees om sensitiewe inligting in te voer, en al het DeepSeek 'kommersieel redelik' maatreëls in plek om die data en inligting wat as insette gebruik word, te beskerm, bied dit geen absolute waarborge nie. DeepSeek se terme verklaar dat hulle nie insette of uitsette in openbare forums publiseer nie, maar sommige kan met derde partye gedeel word.

Gebruik

Enige inhoud wat gebruikers deur DeepSeek genereer, kan vir kommersiële doeleindes gebruik word, maar as gevolg van grys areas rondom plagiaat en akkuraatheid, moet gebruikers stappe doen om die inhoud te verifieer voordat hulle dit op hierdie manier gebruik. DeepSeek se diensbepalings verwys nie na enige beperking oor waar in die wêreld gebruikers hierdie inhoud kan publiseer nie, maar dit stel dit duidelik dat gebruikers moet verklaar dit as KI-gegenereer 'om die publiek te waarsku oor die sintetiese aard van die inhoud'.

Canva is nie wetlik verplig om sy bronne vir opleidingsdata bekend te maak nie. Daarom weet ons nie of kopieregmateriaal gebruik word nie. Die gebruiker besit alle invoer- en uitvoerinhoud (nie Canva nie), maar Canva mag daardie inhoud gebruik om sy dienste te verbeter. 

Akkuraatheid en betroubaarheid

Canva-bere geen verantwoordelikheid vir inhoud akkuraatheid. Die gebruiker moet altyd feite verifieer. 

Sekuriteit en vertroulikheid

Canva gebruik invoerinhoud om sy model op te lei. Dis die gebruiker se verantwoordelikheid om die gebruik van vertroulike of persoonlike inligting vir insette te vermy. Canva probeer om sulke insette vir modelopleiding te filter, maar daar is geen waarborge nie. Canva se KI-instrument is nie verantwoordelik vir sekuriteitskwessies wat deur die gebruiker veroorsaak word nie.

Gebruik

Canva-gebruikers kan gebruik gegenereerde inhoud vir kommersiële doeleindes. Daar is voorwaardes, egter, soos om nie te publiseer nie misleidende inhoud. Die maatskappy het 'n lys van verbode items, onder 'n afdeling getiteld "Wees 'n goeie mens."

Soortgelyk aan ChatGPT, verklaar DALL-E nie bronne vir sy modelopleiding nie. As jy egter kopiereg-beskermde inhoud vind, kan jy kan 'n eis vir verwydering indien. Dit is moeilik om na te gaan of DALL-E 'n kopiereg skend, aangesien geen wetgewing vereis dat DALL-E sy databronne openbaar nie. Gebruikersinvoer, volgens die bepalings, kan gebruik word om DALL-E se model op te lei - selfs al is dit kopiereg-inhoud. Die gebruiker kan hieraan onttrek.  

BLAAT gebruikers eie invoer- en uitvoerinhoud (nie DALL-E nie), maar dit beteken nie dat die gebruiker 'n kopiereg op genoemde inhoud het nie. Ook gebruikers kan nie beweer dat DALL-E-inhoud deur mense gegenereer is nie.

Akkuraatheid en betroubaarheid

DALL-E bere geen verantwoordelikheid vir onakkurate inhoud nie. Sy bepalings dra alle aanspreeklikheid oor op die gebruiker. Hierdie aanspreeklikhede sluit inhoudbetroubaarheid, akkuraatheid, kwaliteit, sekuriteit en volledigheid in. Dus, voor publikasie, gebruikers moet altyd kruisverwysing, hersien vir opdaterings, feite verifieer en met kundiges nagaan, aangesien die publisering van vals inligting tot reputasie- of wetlike reperkussies kan lei. 

Sekuriteit en vertroulikheid

Die Privaatheidsbeleid en Bepalings en Voorwaardes van DALL-E spreek nooit uitdruklik verantwoordelikheid in die geval van 'n sekuriteitsbreuk aan nie. DALL-E het wel veiligheidsmaatreëls in plek. Wie die verantwoordelikheid dra in die geval van 'n hack hang af van streekwette.

DALL-E versamel 'n gebruiker se insette vir modelopleiding, selfs persoonlike inligting, maar jy kan hieraan onttrek. Met die API hanteer DALL-E egter insetdata anders; dit gebruik nie data van besigheidsgebruikers om sy modelle op te lei nie

Gebruik

Die gebruiker besit DALL-E invoer en uitvoer inhoud; hulle moet ook verseker dat inhoud nie enige wette of die DALL-E-bepalings oortree nie. Jy kan nie eis dat inhoud van DALL-E deur mense gegenereer is nie, maar jy hoef ook nie te sê dit is KI-gegenereer nie. 

Jy kan DALL-E vir kommersiële doeleindes gebruik, solank jy alle wette en die DALL-E-bepalings volg. Regulasies kan verander, maar by die skryf hiervan is gebruikers welkom om DALL-E-inhoud op sosiale media, in advertensies en op ander kanale te publiseer. Gebruikers moet altyd behoorlike verwysings maak en feitekontroleer akkuraatheid om te verhoed dat enige wette oortree word.

Bing het geen verpligting om sy data-opleidingsbronne te deel nie, wat dit baie moeilik maak om uit te vind of Bing AI per ongeluk kopieregbeskermde inhoud gebruik. Alhoewel dit moeilik is om te identifiseer, kan gebruikers eise op kopieregbeskermde inhoud maak. Die Microsoft-diensteooreenkoms sê Bing AI neem gebruikersinsette en -uitsette om sy model te verbeter, maar daar is niks formeels in plek om diefstal van intellektuele eiendom te voorkom nie.

Die Diensteooreenkoms sê gebruikers gee aan Microsoft 'n wêreldwye en tantièmevrye intellektuele eiendomslisensie om jou inhoud te gebruik. Verder, Bing/Microsoft neem gebruikersinsette om KI-modelle op te lei.

Akkuraatheid en betroubaarheid

Microsoft bied geen waarborge vir die akkuraatheid of tydigheid van inhoud nie van sy KI-dienste. Daarom moet u alles van Microsoft se KI-nutsgoed nagaan, veral as u 'n besigheidseienaar is wat enige reputasie- en wetlike gevolge wil vermy. 

Sekuriteit en vertroulikheid

Microsoft se KI-nutsgoed (insluitend Bing AI) gebruik persoonlike en vertroulike gebruikersdata om sy modelle op te lei. Die diensooreenkoms dek nie KI-gegenereerde inhoud nie; in plaas daarvan probeer dit om alle KI-inhoudverantwoordelikheid na die gebruiker te skuif. Microsoft aanvaar ook geen verantwoordelikheid nie vir sy kliënte se privaatheid en sekuriteitspraktyke. Kortom, as jou data oortree word terwyl jy Bing AI gebruik, is dit jou probleem, nie Microsoft s'n nie.  

Gebruik

Microsoft eis nie eienaarskap van gebruikersinhoud nie, maar dit reguleer nie spesifiek KI-gegenereerde inhoud nie, waar eienaarskap onseker is. Die Dienste-ooreenkoms laat mense inhoud vir kommersiële doeleindes gebruik, met 'n paar belangrike bepalings: jy moet aanvaar dat KI-gegenereerde inhoud nie menslike kreatiwiteit het nie, dus kan dit nie as intellektuele eiendom geëis word nie; jy mag ook nie inbreuk maak op die intellektuele eiendomsregte van ander nie. Kortom, jy kan nie intellektuele eiendom van ander gebruik nie, maar wat jy ook al met Bing maak, is waarskynlik nie jou eie intellektuele eiendom nie.

Quillbot het geen verpligting om bronne te openbaar wat dit gebruik om modelle op te lei nie. Die maatskappy probeer egter interessant genoeg om een ​​unieke situasie te reguleer: wat as die bron van modelopleiding die KI se uitset is? Quillbot poog in wese om die potensiaal vir kopieregbeskermde uitset te minimaliseer, maar sê daar is steeds 'n kans dat uitset kopiereg is as gebruikers kopiereg-inhoud invoer. Om dinge meer verwarrend te maak, probeer Quillbot om alle gebiede te dek deur te sê gebruikers gee Quillbot 'n onbeperkte, sub-lisensieerbare lisensie terwyl hulle ook beweer dat gebruikers al hul uitsette besit. 

Akkuraatheid en betroubaarheid

Quillbot-bere geen verantwoordelikheid vir akkuraatheid of betroubaarheid nie. Gebruikers moet baie versigtig wees en alle feite van Quillbot verifieer. 

Sekuriteit en vertroulikheid

Quillbot het maatreëls om gebruikers se privaatheid te beskerm, maar dit kan steeds persoonlike data verwerk. Daar is spesiale beskerming vir kinders se privaatheid. Verantwoordelikheid vir dataverlies van 'n hack word op 'n geval-tot-geval basis hanteer. Quillbot sê dat die gebruiker stappe moet neem om te verhoed dat hul persoonlike data gekap word, en dat Quillbot databeskermingselemente in plek het. 

Gebruik

Quillbot-gebruikers kan gegenereerde inhoud vir kommersiële doeleindes publiseer, maar jy sal dalk sekere reëls moet volg, soos om nie skadelike of misleidende inhoud te publiseer nie. Die van Quillbot terme moenie sê dat jy moet verklaar dat die inhoud daarvan KI-gegenereer is nie. Kortom, die gebruiker kan inhoud publiseer wat deur Quillbot gegenereer is solank dit nie enige wette of regte oortree nie. 

Pixlr openbaar nie sy bronne vir KI-modelopleiding nie, aangesien daar geen wetlike verpligting vir hulle is om dit te doen nie. Die bepalings bepaal dat die gebruiker die inhoud besit, maar gebruikers ook gee 'n lisensie aan Pixlr om die inhoud te gebruik. Dit is 'n poging om die gebruik van kopiereg-inhoud te verminder. 

Akkuraatheid en betroubaarheid

Pixlr dra geen verantwoordelikheid vir onakkuraathede nie in sy KI-gegenereerde inhoud. Gebruikers moet versigtig wees om alles van Pixlr af te kontroleer. 

Sekuriteit en vertroulikheid

Pixlr neem gebruikersinsette vir KI-modelopleiding. Dit dra die las oor op die gebruiker om versigtig te wees om in te voer persoonlike of vertroulike inligting. Pixlr doen afstand van sy verantwoordelikheid om sekere inligting uit sy opleidingsdata te filter, hoewel dit wel sommige filters gebruik om persoonlike of vertroulike inligting te blokkeer. Pixlr beweer geen aanspreeklikheid vir sekuriteitskwessies wat deur gebruikers se optrede veroorsaak word nie

Gebruik

Gebruikers kan KI-gegenereerde inhoud publiseer wat deur Pixlr gemaak is vir kommersiële doeleindes (hoewel sommige voorwaardes geld). Die Bepalings hoef nie van jou te sê dat enigiets KI-gegenereer is nie. Gebruikers is egter steeds aanspreeklik vir die oortreding van regte of wette. 

middel van die reis gebruikers gee die maatskappy regte op alle bates wat daardeur gemaak word, maar die gebruiker besit ook al die bates. Daar is uitsonderings, soos hoe jy nie eienaarskap kan eis as jy het pas 'n prent van 'n oorspronklike skepper opgeskaal.

Akkuraatheid en betroubaarheid

Midjourney dra geen verantwoordelikheid vir die betroubaarheid en akkuraatheid nie van die inhoud daarvan. Gebruikers moet dus ekstra versigtig wees om feite te verifieer en betroubaarheid na te gaan. 

Sekuriteit en vertroulikheid

Midjourney lei sy model op met gebruikersinsette, selfs al sluit dit in persoonlike of vertroulike data. Midjourney beweer die gebruiker moet versigtig wees met sensitiewe data, so dit is nie hul probleem nie. Die maatskappy poog om sekere inligting vir modelopleiding uit te filter, maar dit is nie nodig nie. Midjourney eis geen verantwoordelikheid vir sekuriteitskwessies wat uit 'n gebruiker se optrede mag voorkom nie. 

Gebruik

Midjourney-gebruikers kan gegenereerde inhoud vir kommersiële doeleindes publiseer. Sommige voorwaardes, soos die vereiste om op die Pro-weergawe in te teken as die maatskappy meer as $1 miljoen per jaar maak, toepas. Met die skryf hiervan hoef gebruikers nie te beweer dat enigiets KI vanaf Midjourney gegenereer word nie, al is wetgewing in werking om dit te verander. Gebruikers kan oor die algemeen enige Modjourney-inhoud gebruik as dit nie enige regte of wette oortree nie. 

Clipchamp is 'n Microsoft-produk, so dit eis geen verpligting om databronne vir modelopleiding te deel nie. Daarom is dit moeilik om te sê of die KI-instrument per ongeluk kopieregdata gebruik. Iemand moet die kopieregskending identifiseer om 'n eis te maak, wat onwaarskynlik is. Die Microsoft-diensteooreenkoms sê dit kan gebruikersinsette en -uitsette gebruik om dienste te verbeter, en Microsoft reguleer nie intellektuele eiendomsaangeleenthede nie. Ook, gebruikers gee 'n wêreldwye, tantieme-vrye intellektuele eiendomslisensie aan Microsoft toe

Akkuraatheid en betroubaarheid

Clipchamp en Microsoft waarborg niks in terme van die akkuraatheid of tydigheid van sy KI-gereedskap nie, dus moet gebruikers alle feite verifieer voor publikasie. Dit is veral waar vir sake-eienaars wat regs- en reputasiegevolge kan ondervind. 

Sekuriteit en vertroulikheid

Clipchamp en Microsoft gebruik persoonlike en vertroulike data vir modelopleiding. Microsoft probeer verantwoordelikheid vir alle inhoudkwessies na die gebruiker afskuif. Dieselfde geld vir inbraak en sekuriteitsbreuke; dit is die gebruiker se verantwoordelikheid as iets gebeur. 

Gebruik

Clipchamp en Microsoft bly weg van die regulering van KI-gegenereerde inhoud, nooit beweer dat Microsoft die inhoud besit nie. Tegnies sê Microsoft dat die gebruiker dit besit, maar sonder die intellektuele eiendomsregte. Die gebruiker kan Clipchamp-inhoud vir kommersiële doeleindes publiseer met twee bepalings: jy mag nie intellektuele eiendomsregte skend nie, of beweer dat jy intellektuele eiendomsregte het vir gegenereerde inhoud. 

Die Looka terme verklaar dat die maatskappy geen verpligtinge het om data-opleidingsbronne te deel nie, so hulle doen dit nie. Gebruikers dra alle risiko's wanneer hulle Looka-gegenereerde inhoud gebruik. 

Akkuraatheid en betroubaarheid

Looka aanvaar geen verantwoordelikheid vir die akkuraatheid en betroubaarheid van die uitset van sy KI-gereedskap nie. Gebruikers moet alle feite verifieer en kyk vir betroubaarheid. 

Sekuriteit en vertroulikheid

Looka gebruik invoerdata - selfs moontlik persoonlike en vertroulike data - om sy model op te lei, die gebruiker is dus verantwoordelik daarvoor om nie hierdie tipe data in hul invoer te gebruik nie. Looka probeer sulke data filter, maar hulle beweer hulle hoef nie. Daarbenewens is alle sekuriteitskwessies die gebruiker se las. 

Gebruik

Looka-gebruikers mag KI-gegenereerde inhoud vir kommersiële doeleindes gebruik, maar hulle sal dalk voorwaardes of betaal 'n fooi. Gebruikers hoef nie hul gegenereerde inhoud as KI-gegenereer te etiketteer nie. Gebruikers moet die publisering van gegenereerde inhoud vermy wat regte of wette oortree. 

Dit is nie moontlik om te sê of Speechify lei sy model op op kopieregbeskermde materiaal. Ons weet eenvoudig nie. Speechify se bepalings beveel aan om nie kopieregmateriaal vir insette te gebruik nie, wat daarop dui dat sommige uitsette kopieregdata kan hê. Speechify beweer dat hy geen verantwoordelikheid hiervoor dra nie

Akkuraatheid en betroubaarheid

Speechify, volgens sy terme, neem geen verantwoordelikheid vir die akkuraatheid van sy uitsette nie. Gebruikers moet altyd nagaan vir tydigheid, betroubaarheid en akkuraatheid met Speechify. 

Sekuriteit en vertroulikheid

spreek dra alle verantwoordelikheid aan die gebruiker oor wanneer dit kom by die invoer van sensitiewe of persoonlike data. Die instrument gebruik wel insette om modelle op te lei, so gebruikers moet versigtig wees. Speechify hoef nie noodwendig sensitiewe of persoonlike data te filtreer nie, maar dit probeer met sommige filters. Alle verantwoordelikhede vir sekuriteitskwessies word aan die gebruiker oorgedra. 

Gebruik

Speechify-gebruikers mag gebruik uitsette vir kommersiële doeleindes, met sekere voorwaardes soos om in te teken of lisensiëring te kry. Gebruikers hoef nie te verklaar dat Speechify-inhoud KI-gegenereer is nie. Speechify-gebruikers moet egter nooit regte of wette oortree wanneer hulle Speechify-uitsette publiseer nie. 

Die Kapwing Bepalings plaas alle intellektuele eiendom en akkuraatheid verantwoordelikhede op die gebruiker. Alle gebruikers gee aan Kapwing 'n nie-eksklusiewe lisensie, maar die gebruikers behou eienaarskap van die inhoud. Kapwing maak niks bekend oor of hy insetdata vir modelopleiding gebruik nie. 

Akkuraatheid en betroubaarheid

Kapwing plaas alle akkuraatheidsverantwoordelikhede op die gebruiker, veral enige wetlike en reputasie gevolge.

Sekuriteit en vertroulikheid

Kapwing-gebruikers neem alle risiko's aan wanneer hulle kies om vertroulike inligting in sy KI-instrument in te voer. Dit bied ook geen waarborg of verantwoordelikheid oor die sekuriteit van die diens nie.

Gebruik

Jy kan Kapwing-inhoud kommersieel publiseer, maar Kapwing raai gebruikers aan om versigtig te wees. Hul bepalings sê nie of gebruikers moet verklaar dat die uitset van Kapwing KI-gegenereer is of nie.

Otter.ai sê dit laat nie kopieregskendende materiaal in sy dienste toe nie, maar dit is moeilik om hierdie eis te verifieer. Gebruikers behou eienaarskap en kopiereg van insette en plaas in Otter.ai, maar Otter.ai sê gebruikers is verantwoordelik vir nie voorheen kopieregbeskermde inhoud invoer nie. Otter.ai kan ook insette vir masjienleer gebruik.

Akkuraatheid en betroubaarheid

Otter.ai sluit homself uit van verantwoordelikheid rakende akkuraatheid en betroubaarheid, dus moet gebruikers altyd inhoud verifieer. Die gebruik van feitelik misleidende of verkeerde inligting kan regs- of reputasiekwessies vir die gebruiker veroorsaak. 

Sekuriteit en vertroulikheid

Alle risiko om vertroulike inligting bloot te lê op Otter.ai behoort aan die gebruiker. 

Gebruik

Gebruikers kan met kommersiële bedoeling publiseer aangesien die gebruikers die eienaars van inhoud is van Otter.ai. Dit gesê, KI-gegenereerde inhoud het nie duidelike eienaarskapreëls nie. Otter.ai meld ook sy getranskribeerde notas kan deursoek en gedeel word.

PhotoRoom kan gebruikersinsette en -uitsette vir modelopleiding neem, maar daar is beperkte inligting oor of die diens dit doen of nie. Die PhotoRoom-bepalings herinner gebruikers om te verhoed dat kopieregbeskermde inhoud ingevoer word. Gebruikers dra alle verantwoordelikheid vir dit. 

Akkuraatheid en betroubaarheid

Fotokamer dra geen verantwoordelikheid vir die akkuraatheid of betroubaarheid van sy KI-gegenereerde inhoud nie. Gebruikers moet hul eie kontrole uitvoer om dit te verifieer.

Sekuriteit en vertroulikheid

PhotoRoom gebruik insette om sy modelle op te lei. Gebruikers is verantwoordelik wanneer vertroulik ingevoeg word or persoonlike inligting. Die diens probeer om hierdie tipe insette te filtreer, maar beweer geen vereiste om dit te doen nie. Gebruikers dra alle verantwoordelikheid vir sekuriteitskwessies. 

Gebruik

Fotokamer-inhoud kan vir kommersiële doeleindes gebruik word, maar sommige voorwaardes kan van toepassing wees, soos die aansluiting vir 'n intekening. Die bepalings sê dat jy nie inhoud as KI-gegenereer hoef te merk nie. Gebruikers kan dalk ander gevolge sien as hulle regte of wette oortree. 

Vrywaring

Hierdie inligting is slegs vir algemene inligtingsdoeleindes en moet nie as regsadvies geneem word nie. E-handelsplatforms aanvaar geen verantwoordelikheid vir foute of weglatings nie. Raadpleeg 'n geskikte regspersoon vir advies en leiding wat by jou spesifieke behoeftes en omstandighede aangepas is.

Gevolgtrekking

Die alomteenwoordigheid van KI maak dit al hoe meer waarskynlik vir ons almal om gereedskap en toepassings te gebruik wat op hierdie tegnologie gebaseer is - maar baie van ons het nie die luukse van die tyd wat nodig is om hul bepalings en voorwaardes te lees nie. 

In 2017, professionele dienste netwerk Deloitte bevind dat 91% van verbruikers "aanvaar gewillig wetlike bepalings en voorwaardes sonder om dit te lees" - styg tot 97% tussen die ouderdomme van 18 tot 34.

Gegewe hoeveel KI T&C's ons met lae leesbaarheidtellings beoordeel het, blyk dit dat die ondeurdringbaarheid van hierdie dokumente se wettige weerhou gebruikers daarvan om selfs te probeer om dit te verstaan. 

Ons het saam met 'n regspersoon gewerk om die dokumente vir ons te ontleed, maar dit is te betwyfel of dit nodig sou wees.

Ons hoop dat hierdie navorsing – insluitend die leesbaarheidsgraderings daarvan, en Josilda Ndreaj se kundigheid oor die bepalings en voorwaardes om na te dink – sal help om jou keuses te lei van watter KI-toepassings en -nutsmiddels om betrokke te raak. 

Metodologie en bronne

Hoe ons die navorsing gedoen het

Begin met 'n saadlys van ongeveer 90 KI-nutsgoed en -toepassings, ons het eers elke instrument se regsdokumentasie versamel, van bepalings en voorwaardes tot privaatheidsbeleide. Ons het toe die woordlengtes van hierdie dokumente aangeteken en hul leesbaarheidtelling bereken deur Flesch-Kincaid se graderingstelsel te gebruik. Vervolgens het ons die hulp van 'n regskenner, Josilda Ndreaj (LLM), ingeroep wat 'n seleksie van hierdie regsdokumente nagegaan het en sleutelpunte geïdentifiseer het waarvan gebruikers bewus moet wees.

Vir ongeveer 30 van die KI-nutsgoed wat mobiele toepassingweergawes beskikbaar het, het ons elkeen in die Apple App Store gesoek en hul privaatheidsetikette wat op hul lysinskrywings gewys word, aangeteken. Dit is verdeel in 14 kategorieë data wat van gebruikers ingesamel kan word, en vir watter doel. Om te bereken watter KI-toepassings die meeste data ingesamel het, het ons gemeet hoeveel van die 14 moontlike kategorieë hierdie toepassings hul gebruikers nagespoor het. 

Dit is belangrik om daarop te let dat hierdie 14 kategorieë verder in individuele datapunte verdeel word. Byvoorbeeld, 'Kontakinligting' sluit vyf datapunte in, wat is; 'Naam', 'E-posadres', 'Foonnommer', 'Fisiese adres' en 'Ander gebruikerkontakinligting'. Om uit te vind watter toepassings die meeste individuele datapunte insamel, kyk na die laaste kolom in elk van die tabelle.

Sommige programme sal meer individuele datapunte insamel as dié wat hoër in die rangorde verskyn. Dit is omdat ons rangordemetodologie oorweeg watter toepassings data oor die meeste kategorieë oor die algemeen insamel, wat 'n breër en dus meer 'volledige' prentjie van gebruikersdata voorstel, eerder as die diepte van inligting wat hulle in elke kategorie insamel. 

Bronne

Regstellingsversoeke

Ons werk hierdie navorsing gereeld op.

As jy die eienaar is van enige van die KI-nutsgoed wat by hierdie navorsing ingesluit is en jy die inligting op hierdie bladsy wil uitdaag, is ons bereid om dit op te dateer onderhewig aan ons hersiening van die bewyse wat jy verskaf. Wanneer ons ons in hierdie verband kontak, vra ons vriendelik vir: 

  • besigheidsdokumente wat jou legitimiteit verifieer (byvoorbeeld inlywingsertifikaat of registrasiedokumente) 
  • die inligting op hierdie bladsy wat jy glo verouderd is (wees asseblief spesifiek)
  • hoe dit bygewerk moet word en hoekom, met skakels na dokumentasie wat dit rugsteun (byvoorbeeld wysigings aan diensbepalings)

Kontak ons ​​asseblief by [e-pos beskerm] met die onderwerplyn: 'Regstellingversoek: KI-gereedskapstudie', plus die naam van die KI-instrument waaroor jy ons kontak.

Bogdan Rancea

Bogdan Rancea is die medestigter van Ecommerce-Platforms.com en hoofkurator van ecomm.design, 'n vertoonvenster van die beste e-handelwebwerwe. Met meer as 12 jaar in die digitale handelsruimte het hy 'n magdom kennis en 'n skerp oog vir wonderlike aanlynkleinhandelervarings. As 'n e-handel-tegnologie-ontdekkingsreisiger toets en hersien Bogdan verskeie platforms en ontwerpinstrumente soos Shopify, Figma en Canva en verskaf praktiese raad vir winkeleienaars en ontwerpers.