În spatele literei mici: înțelegerea aplicațiilor AI și a confidențialității

Dacă vă abonați la un serviciu dintr-un link de pe această pagină, Reeves and Sons Limited poate câștiga un comision. Vezi noastre declarație de etică.

Inteligența artificială a devenit rapid parte a spiritului contemporan – totuși, considerentele etice în jurul subiectului rămân nerezolvate. Câți utilizatori sunt pe deplin conștienți de ceea ce se înscriu?

Aici, perfecționând termenii și condițiile și politicile de confidențialitate din spatele celor mai populare instrumente și aplicații AI, Platformele de comerț electronic dezvăluie ceea ce trebuie să știți când utilizați aceste instrumente pentru nevoile dvs. de afaceri de zi cu zi.

Am analizat datele și informațiile personale colectate de aceste instrumente (și în ce scop) pentru a vă ajuta să determinați care Instrumente AI, software-ul și platformele sunt cele mai potrivite pentru utilizarea dorită. De asemenea, am consultat un expert juridic pentru a sparge jargonul în spatele termenilor și condițiilor acestor instrumente.

Am analizat etichetele de confidențialitate Apple App Store pentru aproximativ 30 de versiuni disponibile de aplicații mobile ale instrumentelor AI populare pentru a înțelege care dintre ele vă colectează datele și de ce. 

Datele colectate de la utilizatori (și scopul acestora) sunt împărțite în 14 categorii, ceea ce face posibilă stabilirea aplicațiilor care colectează și urmăresc cele mai multe date despre utilizatori.

Pentru mai multe detalii, aruncați o privire la secțiunea de metodologie de la sfârșitul acestei pagini.

Ce date colectează aceste aplicații AI?

Instrumentele AI evaluate în această cercetare colectează date de diferite tipuri. Unele dintre acestea se concentrează pe detaliile personale despre utilizatori — de la nume de ecran și detalii bancare, până la starea lor de sănătate și fitness, și chiar informații sensibile, cum ar fi rasa/etnia, orientarea sexuală, identitatea de gen și opiniile politice. 

Altele se referă la conținutul creat de utilizatori (cum ar fi e-mailurile și mesajele, fotografiile, videoclipurile și înregistrările audio) sau modul în care utilizatorii interacționează cu produsul în sine, cum ar fi istoricul căutărilor lor în aplicație sau reclamele pe care le-au văzut. Mai impersonale sunt și informațiile de diagnostic colectate pentru a arăta datele despre accidente sau consumul de energie.

De ce aceste aplicații AI colectează date?

Sunt diferite motive pentru care aplicațiile colectează date, dintre care unele pot fi considerate mai justificabile decât altele — de exemplu, datele biometrice sau informațiile de contact pot fi folosite pentru a autentifica identitatea utilizatorului.

În mod similar, accesul la anumite date poate fi necesar pentru ca o aplicație să funcționeze corect, inclusiv pentru a preveni frauda sau pentru a îmbunătăți scalabilitatea și performanța.

Mai precis, aplicațiile de mesagerie au nevoie de acces la contacte, camere de telefon și microfoane pentru a permite apeluri, în timp ce geolocalizarea este necesară pentru aplicațiile de taxi sau de livrare.

Motive mai puțin esențiale pentru colectarea datelor includ publicitate sau marketing de către dezvoltatorul aplicației (de exemplu, pentru a trimite comunicări de marketing utilizatorilor dvs.); activarea publicității terță parte (prin urmărirea datelor din alte aplicații pentru a direcționa reclame direcționate către utilizator, de exemplu); și analiza comportamentului utilizatorului în scopuri, inclusiv evaluarea eficienței caracteristicilor existente sau planificarea altora noi.

Bună, utilizator mobil 👋 Tabelele de mai jos pot fi defilate orizontal pentru a vedea toate datele, dar cu siguranță această pagină arată mai bine Desktop.

Aplicații AI care vă colectează datele pentru a le partaja agenților de publicitate terți

Antetele coloanelor cu butoane pot fi sortate.
aplicație AI % date partajate cu alții Istoricul de navigare Contact Identificatorii Locație Alte date Achiziții Istoricul cautarilor Datele de utilizare Nr. puncte de date colectate
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Asistent Google 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
wombo 14% 1 1 2
Chat GPT 7% 1 1
Genie AI 7% 1 1
Obiectiv 7% 1 1
Vorbire 7% 1 1
starryai 7% 1 1

Dintre toate aplicațiile AI incluse în cercetarea noastră, Canva, un instrument de design grafic, colectează cele mai multe date de la utilizatorii săi în scopuri de publicitate terță parte — în jur de 36%. În schimb, cele cinci aplicații care colectează cele mai puține date în acest scop adună puțin peste 7%.

Datele pe care aplicația Canva le colectează de la tine și le partajează terților includ istoricul căutărilor, locația, adresa de e-mail și alte informații afișate în tabelul de mai sus. 

Urmărind îndeaproape Canva este aplicația gamificată de învățare a limbilor străine Duolingo (~36%), Asistent Google (~21%) și Bing de la Microsoft (~14%) - toate acestea de asemenea, împărtășiți datele dvs. cu terți

Dintre cele cinci aplicații care colectează cele mai puține date, numai starryai (un generator de imagini) se limitează doar la partajarea datelor de utilizare.

Aplicații AI care vă colectează datele în beneficiul lor

Antetele coloanelor cu butoane pot fi sortate.
Aplicaţia % date colectate în beneficiul propriu al aplicației Istoricul de navigare Contact Identificatorii Locație Achiziții Istoricul cautarilor Datele de utilizare Nr. puncte de date colectate
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Asistent Google 36% 1 2 2 1 2 8
camera foto 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
Bing 14% 1 1 2
Obiectiv 14% 1 1 2
Vidră 7% 2 2
Tu ai 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Vorbire 7% 1 1
wombo 7% 1 1

De asemenea, Canva se află în fruntea topului pentru aplicațiile AI care colectează date despre utilizatori pentru propriile scopuri de publicitate sau marketing. Pentru a face acest lucru, Canva colectează aproximativ 43% din datele utilizatorilor lor.

Pe locul trei, Amazon Alexa colectează 36% a datelor dumneavoastră în același scop. Aceasta include adresa dvs. de e-mail, adresa fizică, numărul de telefon, istoricul căutărilor și istoricul achizițiilor, plus alte cinci puncte de date. Asistent Google colectează și partajează același procent de date din acest motiv, deși în opt puncte de date individuale, comparativ cu cele zece pe care Amazon Alexa le colectează.

Generatorul de voce text-to-speech, Speechify, este printre aplicațiile care colectează cele mai puține date. Conform etichetelor de confidențialitate ale listei Apple App Store, Speechify colectează doar un punct de date pentru propriul beneficiu; ID-ul dispozitivului dvs.

Aplicații AI care vă colectează datele pentru orice scop

Antetele coloanelor cu butoane pot fi sortate.
Aplicaţia % date colectate Istoricul de navigare Contact Contact Diagnostics Informații financiare Health & Fitness Identificatorii Locație Alte date Achiziții Istoricul cautarilor Informații sensibile Datele de utilizare Conținut utilizator Nr. puncte de date colectate
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Asistent Google 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Vidră 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
memorie 43% 6 4 6 6 6 4 32
ELSA Vorbește 43% 2 6 6 3 3 3 23
camera foto 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
Chat GPT 36% 4 8 5 7 2 26
Nedumeririle AI 36% 6 6 2 1 6 21
1 / 2

Toate modelele AI necesită o formă de instruire prin învățarea automată, adică au nevoie de date.

Dacă vrem ca instrumentele AI să se îmbunătățească și să devină mai utile, confidențialitatea noastră poate fi văzută ca un compromis necesar împotriva furnizării acestor date.

Cu toate acestea, întrebarea unde linia dintre utilitate și exploatare ar trebui să fie desenat, și de ce, este unul spinos.

Având în vedere notorietatea sa actuală, merită să vă adresați DeepSeek. Lista sa pe Apple App Store afirmă că DeepSeek nu colectează date despre utilizatori în propriul beneficiu (de exemplu, marketingul și publicitatea DeepSeek) sau pentru a le partaja cu terțe părți.

Dar merită subliniat că lor Politica de confidențialitate prevede altfel (mai multe despre aceasta mai târziu). 

Aplicația DeepSeek în sine colectează 50% din datele utilizatorilor săi, care servește funcția Analytics și aplicația DeepSeek. Pentru comparație, Aplicația ChatGPT colectează 36%.

Unele instituții media raportează îngrijorări cu privire la riscurile de securitate legate de originile chineze ale DeepSeek (atât în ​​ceea ce privește colectarea datelor, cât și posibila răspândire a dezinformarii) și subcotarea rivalilor americani. Este puțin probabil ca ambele să fie atenuate de Termenii și condițiile și Politica de confidențialitate DeepSeek, care ar lua în jur 35 minute de citit, și sunt evaluate ca „foarte greu” pe scara de lizibilitate Flesch-Kincaid.

Indiferent de modul în care sunt utilizate datele dvs. Amazon Alexa colectează mai multe dintre datele utilizatorilor săi decât orice altă aplicație AI incluse în această cercetare. În general, colectează 93% a datelor dvs. (sau 116 valori individuale, în principal informații de contact, conținut de utilizator și date de utilizare).

Asistent Google urmează, strângerea 86%, urmat de Duolingo, care colectează 79%.

La celălalt capăt al scalei, Generatorul de imagini AI, Stable Diffusion, nu colectează date. Aceasta este conform etichetelor de confidențialitate de pe lista Apple App Store.

Deși este adevărat că toate AI generativă modelele necesită cantități masive de date pentru a fi instruite, această instruire are loc înainte de dezvoltarea unor aplicații specifice. În majoritatea cazurilor, creatorii de aplicații nu dețin modelele AI pe care le folosesc; Prin urmare, colectarea datelor utilizatorilor se referă la funcționalitatea aplicației în sine. Acest lucru poate explica de ce unele dintre aplicațiile pe care le-am investigat nu au informații în tabelul de mai sus.

Navigarea prin termenii și condițiile din spatele instrumentelor AI

Acum, să ne uităm la documentație juridică în spatele diferitelor instrumente AI pentru a afla cât de ușor sau greu sunt de citit. Acesta se bazează pe testul Flesch-Kincaid de citire la nivel de clasă.

Acest sistem echivalează textele cu nivelurile de lectură ale școlii din SUA (de la clasa a cincea până la a XII-a), apoi colegiu, absolvent de facultate și profesionist. Textele de clasa a șasea sunt definite ca „engleză conversațională pentru consumatori”, în timp ce textele calificate profesional sunt descrise ca „extrem de greu de citit”.

Cu cât scorul de lizibilitate este mai mic, cu atât textul este mai greu de citit.

Antetele coloanelor cu butoane pot fi sortate.
Clipchamp 3 ore 16 minute 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 ore 20 minute 35.4 🤯🤯🤯🤯🤯
veed.io 2 ore 15 minute 37.9 🤯🤯🤯🤯🤯
Facetune 2 ore 4 minute 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 ore 47 minute 31.4 🤯🤯🤯🤯🤯🤯
Vidră 1 ore 11 minute 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 ore 9 minute 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 ore 6 minute 30.9 🤯🤯🤯🤯🤯🤯
Vorbire 1 ore 6 minute 35.0 🤯🤯🤯🤯🤯🤯
Pistă de decolare 1 ore 2 minute 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

În 2023, compania britanică de asigurări de afaceri Superscript a chestionat proprietarii a 500 de întreprinderi mici și mijlocii (IMM-uri) pentru a afla ce le consumă cel mai mult timp.

În mod grăitor, „somnul suficient” – esențial pentru sănătatea fizică și mintală și pentru funcția cognitivă – ocupă locul trei, după „orele lungi de lucru” și „întocmirea declarațiilor fiscale”.

O treime dintre cei chestionați au considerat că nu este posibil să-și facă toată administrația în timpul orelor de lucru, și au spus ei avea nevoie de patru ore suplimentare pe zi pentru a trece peste toate.

Acest lucru oferă o idee cât de pedepsitor poate fi să conduci un IMM și că timpul necesar pentru a citi termenii și condițiile în spatele instrumentelor pe care se bazează se află nu este ușor de găsit.

În acest context, timpul de citire de 40 de minute a T&C pentru instrumente de transcriere precum Otter, Trint și Descript este extrem de important. 

Și asta presupunând că este posibil de înțeles termenii și condițiile cele mai greu de citit. De aceea am solicitat expertiza unui expert juridic.

Josilda Ndreaj, un avocat profesionist și licențiat, a abordat probleme juridice complexe în numele clienților Fortune 500 și a oferit consiliere diferitelor corporații.

Mai recent, în calitate de consultant independent, a făcut-o concentrat pe dreptul proprietății intelectuale la intersecția tehnologiei blockchain și inteligenței artificiale.

Josilda Ndreaj (LLM) este un avocat profesionist și licențiat cu expertiză în dreptul proprietății intelectuale (IP).

Cariera ei de consultant juridic a început într-o firmă internațională de avocatură prestigioasă, care oferă clienților Fortune 500. Aici, Josilda a navigat în chestiuni juridice complexe și a oferit consiliere diferitelor corporații.

Condusă de interese pentru inovare, creativitate și tehnologii emergente, Josilda s-a aventurat apoi în consultanță independentă și s-a concentrat pe dreptul proprietății intelectuale, acoperind intersecția cu tehnologia blockchain și inteligența artificială.

Josilda deține două diplome de master în drept; unul specializat în Drept civil și comercial de la Universitatea din Tirana, iar celălalt cu accent pe dreptul proprietății intelectuale, de la Universitatea de Economie și Drept Zhongnan.

Ca atare, Josilda a fost poziționați în mod unic pentru a examina o selecție a documentelor legale ale acestor instrumente AI, scoțând puncte cheie în beneficiul celor dintre noi care nu dețin două diplome de master în drept.

Rezumatele ei sunt prezentate mai jos:

Gemenii (fostul Bard) nu au nicio obligație să declare surse de antrenament, așa că nu putem verifica dacă este instruit pe materiale protejate prin drepturi de autor. Gemenii nu sunt excluși de la răspunderea unei astfel de încălcări; dacă un proprietar de drepturi de autor depune acuzații, Gemenii poartă o anumită responsabilitate. Dar este important să rețineți că Gemenii sunt instruiți pe ceea ce îi oferă utilizatorul. Pentru aceasta, Gemeni necesită o licență de la utilizator. Dacă utilizatorul este de acord să acorde acea licență Geminilor, dar ei (utilizatorul) nu dețin de fapt drepturile de autor, responsabilitatea revine utilizatorului.

Utilizatorii își păstrează dreptul de proprietate asupra intrărilor și solicitărilor lor, dar proprietatea asupra producției este mai complexă. Gemenii nu precizează acest lucru în Termenii săi. Multe legislații nu recunosc drepturile de proprietate intelectuală ale mașinilor. Cu toate acestea, este discutabil să argumentăm că rezultatul este „generat de om”, chiar dacă utilizatorul deține intrarea.

Acuratețe și fiabilitate

Folosiți întotdeauna discreția atunci când vă bazați pe Gemeni pentru informații exacte. Sale Termenii și condițiile afirmă că acuratețea nu trebuie presupusă automat de către utilizator. Prin urmare, ar trebui să verificați faptele tot conținutul generat din Gemeni. 

Proprietarii de afaceri nu ar trebui să publice niciodată o ieșire de la Gemini fără referințe încrucișate, revizuirea actualizărilor și verificarea acurateței cu experții. În caz contrar, aceștia riscă să publice informații înșelătoare, care pot avea consecințe reputaționale sau juridice.

Securitate și confidențialitate

Google (proprietarul Gemini) nu furnizează nicio informație în Politica sa de confidențialitate cu privire la modul în care gestionează datele confidențiale.

Folosire

Google nu precizează nimic în Termenii și condițiile cu privire la faptul dacă conținutul generat de Gemini poate fi utilizat în scopuri comerciale. Se explică restricții pentru lucruri precum drepturile de proprietate intelectuală dar nimic special pentru conținutul generat de AI.

În prezent, nicio legislație nu impune ChatGPT să declare public pe ce este antrenat modelul său. Deci, pentru că nu își dezvăluie sursele, nu putem ști dacă ChatGPT furnizează sau procesează conținut care este protejat de legile drepturilor de autor. Dacă cineva identifică conținut protejat prin drepturi de autor din ChatGPT, pot face o cerere pentru a elimina acel conținut.

Termenii ChatGPT precizează că introducerea utilizatorului, chiar dacă este protejată prin drepturi de autor, este folosit pentru a îmbunătăți serviciul și a antrena modelul; iar utilizatorul nu poate renunța la acest lucru. Termenii ChatGPT spun că un utilizator deține tot conținutul de intrare și de ieșire (dacă conținutul de intrare este deja utilizat legal), dar asta nu garantează că utilizatorul deține drepturile de autor asupra acelui conținut de intrare și de ieșire. In plus, utilizatorii nu pot transmite nimic din ChatGPT drept „generat de oameni”.

Acuratețe și fiabilitate

Utilizatorii ar trebui să verifice toate informațiile din ChatGPT. Asta pentru că ChatGPT nu își asumă responsabilitatea de a furniza informații exacte, conținut actualizat. Conform secțiunii de declinare a răspunderii privind garanția, utilizatorul își asumă toate riscurile de acuratețe, calitate, fiabilitate, securitate și completitudine. Prin urmare, verificați întotdeauna faptele din ChatGPT; referințe încrucișate, examinați pentru actualizări și verificați, de asemenea, cu experții pentru exactitate. Proprietarii de afaceri se pot confrunta cu consecințe legale sau reputaționale dacă nu verifică acuratețea conținutului ChatGPT înainte de publicare. 

Securitate și confidențialitate

ChatGPT colectează informații din intrări - inclusiv informații personale - pentru a-și antrena eventual modelele (conform Politicii de confidențialitate). Utilizatorul poate renunța. Situația se schimbă dacă datele sunt trimise prin conexiuni API (ChatGPT Enterprise, Team, etc); asta pentru că ChatGPT nu folosește intrări de la clienții de afaceri a antrena modele. ChatGPT are măsuri de securitate în vigoare, dar nu abordează în mod explicit responsabilitatea pentru o încălcare a securității. Totul depinde de legile regionale. 

Folosire

Utilizatorii ChatGPT dețin conținutul lor de intrare și ieșire; utilizatorii, prin urmare, trebuie să se asigure că conținutul nu încalcă nicio lege. Utilizatorii nu pot pretinde că conținutul este generat de oameni, dar nici nu trebuie să spui că este generat de AI. Atâta timp cât utilizatorii respectă legile regionale și Termenii de utilizare, conținutul ChatGPT poate fi utilizat în scopuri comerciale, pe rețelele sociale, pentru publicitate plătită și alte canale. Vă recomandăm să verificați faptele, să faceți referințe și să respectați legile înainte de a publica conținut din ChatGPT. 

Nici Politica de confidențialitate, nici Termenii nu specifică dacă instrumentul AI al DeepSeek a fost instruit pe materiale protejate prin drepturi de autor. În plus, nu oferă nicio garanție că rezultatele nu vor încălca drepturile de autor ale nimănui. Termenii de utilizare ai DeepSeek precizează că utilizatorii păstrează drepturile asupra intrărilor lor (indemnizații), dar acest lucru nu înseamnă neapărat că sunt protejați prin drepturi de autor în primul rând, așa că utilizatorii ar trebui să ia măsuri pentru a se asigura că ceea ce folosesc ca solicitări nu este proprietatea intelectuală a altcuiva.

Termenii precizează, de asemenea, în mod explicit că utilizatorul este responsabil pentru toate intrările și ieșirile corespunzătoare, deci având în vedere acest lucru, utilizatorii ar trebui să le verifice în mod independent, căutând consiliere juridică și/sau utilizând baze de date privind drepturile de autor. De exemplu, cel Catalogul public al Oficiului pentru Drepturi de Autor din SUA permite utilizatorilor să caute lucrări înregistrate în SUA, în timp ce Căutarea inversă de imagini de la Google ajută la verificarea dacă o imagine a fost publicată anterior sau protejată prin drepturi de autor.

Acuratețe și fiabilitate

Termenii de utilizare ai DeepSeek spun că rezultatele sunt generate de AI și, prin urmare, pot conține erori și/sau omisiuni. Ea se referă în mod specific la probleme medicale, juridice și financiare despre care utilizatorii pot întreba DeepSeek și despre cum rezultatele lui DeepSeek nu constituie sfaturi. Dar mai larg, asta spune același lucru despre „probleme profesionale”, care ar putea fi aproape orice - de la marketing și cercetare la tehnologie și educație și nu numai - și că rezultatele nu „reprezintă opiniile lui Orice domeniul profesional.' Prin urmare, utilizatorii ar trebui să verifice în mod independent toate rezultatele DeepSeek pentru acuratețe.

Securitate și confidențialitate

Politica de confidențialitate a DeepSeek explică faptul că intrările utilizatorilor sunt procesate pentru a genera rezultate, dar și pentru îmbunătățiți serviciul DeepSeek. Aceasta include „formarea și îmbunătățirea tehnologiei [lor]”. Prin urmare, utilizatorii ar trebui să fie atenți la introducerea de informații sensibile și, chiar dacă DeepSeek are „rezonabil din punct de vedere comercialMăsurile existente pentru a proteja datele și informațiile utilizate ca intrări, nu oferă garanții absolute. Termenii DeepSeek afirmă că nu publică intrări sau rezultate în forumuri publice, dar unele pot fi partajate cu terți.

Folosire

Orice conținut pe care utilizatorii îl generează prin DeepSeek poate fi folosit în scopuri comerciale, dar din cauza zonelor gri din jurul plagiatului și acurateței, utilizatorii ar trebui să ia măsuri pentru a verifica conținutul înainte de a-l folosi în acest fel. Termenii și condițiile DeepSeek nu fac referire la nicio limitare cu privire la locul în care utilizatorii pot publica acest conținut, dar precizează în mod clar că utilizatorii trebuie declarați-l ca fiind generat de AI „pentru a alerta publicul asupra naturii sintetice a conținutului”.

Canva nu este obligat prin lege să-și dezvăluie sursele pentru datele de antrenament. Prin urmare, nu știm dacă materialele protejate prin drepturi de autor sunt folosite. Utilizatorul deține tot conținutul de intrare și de ieșire (nu Canva), dar Canva poate folosi acel conținut pentru a-și îmbunătăți serviciile. 

Acuratețe și fiabilitate

Urși de pânză nicio responsabilitate pentru acuratețea conținutului. Utilizatorul ar trebui să verifice întotdeauna faptele. 

Securitate și confidențialitate

Canva folosește conținutul de intrare pentru a-și antrena modelul. Este responsabilitatea utilizatorului de a evita utilizarea informațiilor confidențiale sau personale pentru intrări. Canva încearcă să filtreze astfel de intrări pentru antrenamentul modelului, dar nu există garanții. Instrumentul AI al Canva nu este responsabil pentru problemele de securitate cauzate de utilizator.

Folosire

Utilizatorii Canva pot folosi conținut generat în scopuri comerciale. Sunt Condiții, totuși, ca să nu publici conținut înșelător. Firma are un lista articolelor interzise, sub o secțiune intitulată „Fii un om bun”.

Similar cu ChatGPT, DALL-E nu declară surse pentru formarea modelului său. Dacă, totuși, găsiți conținut protejat prin drepturi de autor, dvs poate depune o cerere de eliminare. Este dificil de verificat dacă DALL-E încalcă un drept de autor, deoarece nicio legislație nu impune DALL-E să-și dezvăluie sursele de date. Introducerea utilizatorului, conform Termenilor, poate fi folosit pentru a antrena modelul lui DALL-E — chiar dacă este conținut protejat prin drepturi de autor. Utilizatorul poate renunța la acest lucru.  

DALĂ utilizatorii dețin conținut de intrare și de ieșire (nu DALL-E), dar asta nu înseamnă că utilizatorul are drepturi de autor asupra conținutului respectiv. De asemenea, utilizatorii nu pot pretinde că conținutul DALL-E este generat de oameni.

Acuratețe și fiabilitate

DALL-E urși nicio responsabilitate pentru conținutul inexact. Termenii săi transferă toată răspunderea utilizatorului. Aceste obligații includ fiabilitatea conținutului, acuratețea, calitatea, securitatea și caracterul complet. Deci, înainte de a publica, utilizatorii ar trebui întotdeauna să facă referințe încrucișate, să verifice pentru actualizări, să verifice faptele și să se consulte cu experții, deoarece publicarea de informații false poate duce la repercusiuni reputaționale sau legale. 

Securitate și confidențialitate

Politica de confidențialitate și Termenii și condițiile de la DALL-E nu abordează niciodată în mod explicit responsabilitatea în cazul unei încălcări a securității. Totuși, DALL-E are măsuri de securitate în vigoare. Cine poartă responsabilitatea în cazul unui hack depinde de legile regionale.

DALL-E colectează intrarea unui utilizator pentru formarea modelului, chiar și informații personale, dar puteți renunța la acest lucru. Cu API-ul, totuși, DALL-E gestionează datele de intrare în mod diferit; nu folosește datele de la utilizatorii de afaceri pentru a-și antrena modelele

Folosire

utilizatorul deține conținutul de intrare și ieșire DALL-E; de asemenea, trebuie să se asigure că conținutul nu încalcă nicio lege sau Termenii DALL-E. Nu puteți pretinde că conținutul de la DALL-E este generat de oameni, dar nici nu trebuie să spuneți că este generat de AI. 

Puteți utiliza DALL-E în scopuri comerciale, atâta timp cât respectați toate legile și Termenii DALL-E. Reglementările se pot schimba, dar în momentul scrierii, utilizatorii sunt bineveniți să publice conținut DALL-E pe rețelele sociale, în reclame și pe alte canale. Utilizatorii ar trebui să facă întotdeauna referințe adecvate și acuratețea verificării faptelor pentru a evita încălcarea oricăror legi.

Bing nu are nicio obligație de a-și partaja sursele de formare a datelor, ceea ce face foarte dificil să-ți dai seama dacă Bing AI folosește din neatenție conținut protejat prin drepturi de autor. Deși este dificil de identificat, utilizatorii pot face revendicări privind conținutul protejat prin drepturi de autor. Acordul de servicii Microsoft spune că Bing AI folosește intrările și ieșirile utilizatorilor pentru a-și îmbunătăți modelul, dar nu există nimic formal care să prevină furtul de proprietate intelectuală.

Acordul de servicii spune că utilizatorii acordă Microsoft o licență de proprietate intelectuală la nivel mondial și fără drepturi de autor pentru a vă folosi conținutul. În plus, Bing/Microsoft preia intrările utilizatorilor pentru a antrena modele AI.

Acuratețe și fiabilitate

Microsoft nu oferă nicio garanție pentru acuratețea sau actualitatea conținutului de la serviciile sale AI. Prin urmare, ar trebui să verificați totul de la instrumentele AI ale Microsoft, mai ales dacă sunteți proprietar de afaceri care dorește să evite orice consecințe de reputație și juridice. 

Securitate și confidențialitate

Instrumentele Microsoft AI (inclusiv Bing AI) utilizați datele personale și confidențiale ale utilizatorilor pentru a-și antrena modelele. Acordul său de servicii nu acoperă conținutul generat de AI; în schimb, încearcă să transfere întreaga responsabilitate a conținutului AI către utilizator. De asemenea, Microsoft nu își asumă nicio responsabilitate pentru practicile de confidențialitate și securitate ale clienților săi. Pe scurt, dacă datele tale sunt încălcate în timpul utilizării Bing AI, este problema ta, nu a Microsoft.  

Folosire

Microsoft nu revendică dreptul de proprietate asupra conținutului utilizatorului, dar nu reglementează în mod specific conținutul generat de inteligență artificială, unde proprietatea este incertă. Acordul de servicii permite oamenilor să utilizeze conținutul în scopuri comerciale, cu câteva prevederi semnificative: trebuie să acceptați că conținutul generat de AI nu are creativitate umană, deci nu poate fi revendicat drept proprietate intelectuală; De asemenea, nu trebuie să încălcați drepturile de proprietate intelectuală ale altora. Pe scurt, nu poți folosi proprietatea intelectuală de la alții, dar orice faci cu Bing probabil nu este proprietatea ta intelectuală.

Quillbot are nicio obligație de a dezvălui sursele pe care le folosește pentru a antrena modele. Cu toate acestea, compania încearcă în mod interesant să reglementeze o situație unică: ce se întâmplă dacă sursa de formare a modelului este rezultatul AI? Quillbot încearcă în esență să minimizeze potențialul de ieșire protejată prin drepturi de autor, dar afirmă că există încă o șansă a ieșirii să fie protejată prin drepturi de autor dacă utilizatorii introduc conținut protejat prin drepturi de autor. Pentru a face lucrurile mai confuze, Quillbot încearcă să acopere toate domeniile spunând că utilizatorii îi acordă lui Quillbot o licență nelimitată, sub-licențiabilă, pretinzând, de asemenea, că utilizatorii dețin toate rezultatele lor. 

Acuratețe și fiabilitate

urșii Quillbot nicio responsabilitate pentru acuratețe sau fiabilitate. Utilizatorii ar trebui să fie foarte precauți și să verifice toate faptele de la Quillbot. 

Securitate și confidențialitate

Quillbot are măsuri pentru protejarea confidențialității utilizatorilor, dar poate ajunge totuși să prelucreze date cu caracter personal. Există protecții speciale pentru confidențialitatea copiilor. Responsabilitatea pentru pierderea datelor în urma unui hack este gestionată de la caz la caz. Quillbot afirmă că utilizatorul ar trebui să ia măsuri pentru a preveni piratarea datelor sale personale și că Quillbot are elemente de protecție a datelor. 

Folosire

Utilizatorii Quillbot pot publica conținutul generat în scopuri comerciale, dar poate fi necesar să urmați anumite reguli, cum ar fi să nu publicați conținut dăunător sau înșelător. a lui Quillbot Termene nu spuneți că trebuie să declarați conținutul său este generat de AI. Pe scurt, cel utilizatorul poate publica conținutul generat de Quillbot atâta timp cât nu încalcă nicio lege sau drept. 

Pixlr nu își dezvăluie sursele pentru instruirea modelelor AI, deoarece nu există nicio obligație legală pentru a face acest lucru. Termenii săi precizează că utilizatorul deține conținutul, dar și utilizatorii acordați o licență lui Pixlr pentru a utiliza conținutul. Aceasta este o încercare de a minimiza utilizarea conținutului protejat prin drepturi de autor. 

Acuratețe și fiabilitate

Pixlr nu își asumă responsabilitatea pentru inexactități în conținutul său generat de AI. Utilizatorii ar trebui să fie atenți să verifice totul din Pixlr. 

Securitate și confidențialitate

Pixlr primește intrările utilizatorilor pentru formarea modelului AI. Transmite utilizatorului sarcina de a fi atent la introducere informații personale sau confidențiale. Pixlr renunță la responsabilitatea de a filtra unele informații din datele sale de antrenament, deși folosește unele filtre pentru a bloca informațiile personale sau confidențiale. susține Pixlr nu răspunde pentru problemele de securitate cauzate de acțiunile utilizatorilor

Folosire

Utilizatorii pot publica conținut generat de AI realizat prin Pixlr în scopuri comerciale (deși se aplică anumite condiții). Termenii nu vă cere să declarați că nimic este generat de AI. Utilizatorii sunt totuși răspunzători pentru încălcarea drepturilor sau a legilor. 

Mijlocul călătoriei utilizatorii acordă companiei drepturi asupra tuturor activelor realizate prin intermediul acesteia, dar utilizatorul deține, de asemenea, toate activele. Există excepții, cum ar fi modul în care nu puteți revendica proprietatea dacă sunteți tocmai am mărit o imagine de la un creator original.

Acuratețe și fiabilitate

Midjourney nu poartă nicio responsabilitate pentru fiabilitatea și acuratețea a continutului acestuia. Prin urmare, utilizatorii ar trebui să aibă o atenție sporită pentru a verifica faptele și a verifica fiabilitatea. 

Securitate și confidențialitate

Midjourney își antrenează modelul cu intrările utilizatorului, chiar dacă include date personale sau confidențiale. Midjourney susține că utilizatorul ar trebui să fie atent cu datele sensibile, deci nu este problema lor. Compania încearcă să filtreze anumite informații pentru formarea modelului, dar nu este obligatoriu. Midjourney nu își asumă responsabilitatea pentru problemele de securitate care pot apărea din acțiunile unui utilizator. 

Folosire

Utilizatorii Midjourney pot publica conținutul generat în scopuri comerciale. Unele condiții, cum ar fi cerința de a vă abona la versiunea Pro dacă compania câștigă mai mult de 1 milion de dolari pe an, aplicați. La momentul redactării acestui articol, utilizatorii nu trebuie să pretindă că ceva este generat de AI din Midjourney, chiar dacă legislația este în mișcare pentru a schimba acest lucru. În general, utilizatorii pot folosi orice conținut Modjourney dacă nu încalcă niciun drept sau lege. 

Clipchamp este un produs Microsoft, așa că nu pretinde nicio obligație de a partaja sursele de date pentru formarea modelelor. Prin urmare, este greu de spus dacă instrumentul AI folosește din neatenție date protejate prin drepturi de autor. Cineva trebuie să identifice încălcarea drepturilor de autor pentru a face o reclamație, ceea ce este puțin probabil. Acordul de servicii Microsoft spune poate folosi intrările și ieșirile utilizatorului pentru a îmbunătăți serviciile, iar Microsoft nu reglementează problemele de proprietate intelectuală. Asemenea, utilizatorii acordă Microsoft o licență de proprietate intelectuală la nivel mondial, fără drepturi de autor

Acuratețe și fiabilitate

Clipchamp și Microsoft nu garantează nimic în ceea ce privește acuratețea sau actualitatea instrumentelor sale AI, astfel încât utilizatorii ar trebui să verifice toate faptele înainte de publicare. Acest lucru este valabil mai ales pentru proprietarii de afaceri care se pot confrunta cu consecințe legale și reputaționale. 

Securitate și confidențialitate

Clipchamp și Microsoft utilizați date personale și confidențiale pentru antrenamentul modelului. Microsoft încearcă să transfere responsabilitatea pentru toate problemele de conținut către utilizator. Același lucru este valabil și pentru hacking și încălcări de securitate; este responsabilitatea utilizatorului dacă se întâmplă ceva. 

Folosire

Clipchamp și Microsoft se îndepărtează de a reglementa conținutul generat de AI, nu susțin niciodată că Microsoft deține conținutul. Din punct de vedere tehnic, Microsoft spune că utilizatorul îl deține, dar fără drepturi de proprietate intelectuală. Utilizatorul poate publica conținut Clipchamp în scopuri comerciale cu două prevederi: nu puteți încălca drepturile de proprietate intelectuală sau nu puteți pretinde că aveți drepturi de proprietate intelectuală pentru conținutul generat. 

The Looka Termene afirmă că compania nu are obligații de a partaja sursele de instruire a datelor, așa că nu au. Utilizatorii suportă toate riscurile atunci când folosesc conținut generat de Looka. 

Acuratețe și fiabilitate

Looka nu își asumă responsabilitatea pentru acuratețea și fiabilitatea rezultatelor din instrumentele sale AI. Utilizatorii ar trebui să verifice toate faptele și verificați fiabilitatea. 

Securitate și confidențialitate

Looka folosește date de intrare - chiar și date potențial personale și confidențiale - pentru a-și antrena modelul, deci utilizatorul este responsabil pentru neutilizarea acestui tip de date în introducerea sa. Looka încearcă să filtreze astfel de date, dar ei susțin că nu trebuie. În plus, toate problemele de securitate sunt sarcina utilizatorului. 

Folosire

Utilizatorii Looka pot folosi conținut generat de inteligență artificială în scopuri comerciale, dar ar putea fi nevoiți să respecte condițiile sau plătește o taxă. Utilizatorii nu trebuie să-și eticheteze conținutul generat ca fiind generat de AI. Utilizatorii ar trebui să evite publicarea conținutului generat care încalcă drepturile sau legile. 

Nu se poate spune dacă Speechify își antrenează modelul asupra materialelor protejate prin drepturi de autor. Pur și simplu nu știm. Termenii Speechify recomandă să nu folosiți materiale protejate prin drepturi de autor pentru intrări, ceea ce sugerează că unele ieșiri pot avea date protejate prin drepturi de autor. Vorbire pretinde că nu poartă nicio responsabilitate pentru acest lucru

Acuratețe și fiabilitate

Speechify, conform ei Termene , nu își asumă responsabilitatea pentru acuratețea rezultatelor sale. Utilizatorii ar trebui să verifice întotdeauna actualitatea, fiabilitatea și acuratețea cu Speechify. 

Securitate și confidențialitate

Vorbire transferă toată responsabilitatea utilizatorului atunci când vine vorba de introducerea datelor sensibile sau personale. Instrumentul folosește intrări pentru a antrena modele, așa că utilizatorii ar trebui să fie atenți. Speechify nu trebuie neapărat să filtreze datele sensibile sau personale, dar încearcă cu unele filtre. Toate responsabilitățile pentru problemele de securitate sunt transmise utilizatorului. 

Folosire

Utilizatorii Speechify pot folosi ieșiri în scopuri comerciale, cu anumite condiții, cum ar fi să vă abonați sau să obțineți licență. Utilizatori nu trebuie să declari că conținutul Speechify este generat de AI. Cu toate acestea, utilizatorii Speechify nu ar trebui să încalce niciodată drepturile sau legile atunci când publică ieșirile Speechify. 

The Kapwing Termenii atribuie utilizatorului toate responsabilitățile privind proprietatea intelectuală și acuratețea. Toți utilizatorii acordă Kapwing o licență neexclusivă, dar utilizatorii păstrează dreptul de proprietate asupra conținutului. Kapwing nu dezvăluie nimic despre utilizarea datelor de intrare pentru antrenamentul modelului. 

Acuratețe și fiabilitate

Kapwing pune toate responsabilitățile de acuratețe asupra utilizatorului, în special orice consecințe juridice și reputaționale.

Securitate și confidențialitate

Utilizatorii Kapwing își asumă toate riscurile atunci când aleg să introducă informații confidențiale în instrumentul său AI. De asemenea, nu oferă nicio garanție sau responsabilitate cu privire la securitatea serviciului.

Folosire

Puteți publica conținut Kapwing comercial, dar Kapwing sfătuiește utilizatorii să fie precauți. Termenii lor nu spun dacă utilizatorii trebuie sau nu să declare că ieșirea de la Kapwing este generată de AI.

Otter.ai afirmă că nu permite materialele care încalcă drepturile de autor în serviciile sale, dar este dificil de verificat această afirmație. Utilizatorii păstrează proprietatea și drepturile de autor asupra intrărilor și postează în Otter.ai, dar Otter.ai spune utilizatorii sunt responsabili pentru nu introduceți conținut anterior protejat prin drepturi de autor. Vidra.ai poate folosi, de asemenea, intrări pentru învățarea automată.

Acuratețe și fiabilitate

Otter.ai se exclude de responsabilitatea în ceea ce privește acuratețea și fiabilitatea, astfel încât utilizatorii ar trebui să verifice întotdeauna conținutul. Utilizarea informațiilor înșelătoare sau incorecte ar putea cauza probleme juridice sau de reputație pentru utilizator. 

Securitate și confidențialitate

Tot riscul de a expune informații confidențiale pe Otter.ai aparține utilizatorului. 

Folosire

Utilizatorii pot publica cu intenție comercială întrucât utilizatorii sunt proprietarii conținutului din Otter.ai. Acestea fiind spuse, conținutul generat de AI nu are reguli clare de proprietate. Otter.ai mai afirmă notele sale transcrise pot fi căutate și partajate.

PhotoRoom ar putea prelua intrările și ieșirile utilizatorilor pentru formarea modelului, dar există informații limitate despre dacă serviciul face asta sau nu. Termenii PhotoRoom le reamintesc utilizatorilor să evite alimentarea cu conținut protejat prin drepturi de autor. Utilizatorii poartă toată responsabilitatea pentru asta. 

Acuratețe și fiabilitate

camera foto nu își asumă responsabilitatea pentru acuratețea sau fiabilitatea conținutului său generat de AI. Utilizatorii ar trebui să efectueze propriile verificări pentru a verifica acest lucru.

Securitate și confidențialitate

PhotoRoom folosește intrări pentru a-și antrena modelele. Utilizatorii sunt responsabili atunci când inserează informații confidențiale or Informații personale. Serviciul încearcă să filtreze aceste tipuri de intrări, dar pretinde că nu este necesar să facă acest lucru. Utilizatorii poartă toată responsabilitatea pentru problemele de securitate. 

Folosire

Conținut PhotoRoom poate fi folosit în scopuri comerciale, dar se pot aplica unele condiții, cum ar fi înscrierea pentru un abonament. Termenii precizează că nu trebuie să marcați conținutul ca fiind generat de AI. Utilizatorii pot vedea alte repercusiuni dacă încalcă drepturile sau legile. 

Declinare a responsabilităţii

Aceste informații au doar scop informativ general și nu trebuie luate ca un sfat juridic. Platformele de comerț electronic nu își asumă nicio responsabilitate pentru erori sau omisiuni. Consultați un profesionist juridic potrivit pentru sfaturi și îndrumări adaptate nevoilor și circumstanțelor dumneavoastră specifice.

Concluzie

Ubicuitatea AI face ca noi toți să folosim din ce în ce mai probabil instrumente și aplicații bazate pe această tehnologie – totuși mulți dintre noi nu au timpul necesar pentru a le citi termenii și condițiile. 

În 2017, rețeaua de servicii profesionale Deloitte a constatat că 91% din consumatori „Acceptă de bunăvoie termenii și condițiile legale fără a le citi” — crescând la 97% între 18 și 34 de ani.

Având în vedere câte T&C AI am evaluat cu scoruri scăzute de lizibilitate, se pare că impenetrabilitatea legalizării acestor documente îi împiedică pe utilizatori chiar să încerce să le înțeleagă. 

Am lucrat cu un profesionist juridic pentru a analiza documentele pentru noi, dar este îndoielnic dacă acest lucru ar trebui să fie necesar.

Sperăm că această cercetare – inclusiv evaluările sale de lizibilitate și experiența Josildei Ndreaj cu privire la termenii și condițiile pe care trebuie să le țineți cont – vă va ajuta să alegeți aplicațiile și instrumentele AI cu care să vă implicați. 

Metodologie și surse

Cum am realizat cercetarea

Începând cu o listă de bază de aproximativ 90 de instrumente și aplicații AI, am adunat mai întâi documentația legală a fiecărui instrument, de la termeni și condiții la politicile de confidențialitate. Apoi am înregistrat lungimea cuvintelor acestor documente și am calculat scorul de lizibilitate al acestora folosind sistemul de notare Flesch-Kincaid. Apoi, am apelat la ajutorul unui expert juridic, Josilda Ndreaj (LLM), care a analizat o selecție a acestor documente juridice și a identificat punctele cheie de care utilizatorii ar trebui să fie conștienți.

Pentru aproximativ 30 de instrumente AI care au versiuni de aplicații mobile disponibile, am căutat fiecare în Apple App Store și le-am înregistrat etichetele de confidențialitate afișate în listele lor. Acestea sunt împărțite în 14 categorii de date care pot fi colectate de la utilizatori și în ce scop. Pentru a calcula care aplicații AI au colectat cele mai multe date, am măsurat în câte dintre cele 14 categorii posibile aceste aplicații și-au urmărit utilizatorii. 

Este important de reținut că aceste 14 categorii sunt împărțite în continuare în puncte de date individuale. De exemplu, „Informații de contact” include cinci puncte de date, care sunt; „Nume”, „Adresă de e-mail”, „Număr de telefon”, „Adresă fizică” și „Alte informații de contact ale utilizatorului”. Pentru a afla care aplicații colectează cele mai multe puncte de date individuale, aruncați o privire la ultima coloană din fiecare dintre tabele.

Unele aplicații vor colecta mai multe puncte de date individuale decât cele care apar mai sus în clasament. Acest lucru se datorează faptului că metodologia noastră de clasare ia în considerare aplicațiile care colectează date din cele mai multe categorii în general, sugerând o imagine mai largă și, prin urmare, mai „completă” a datelor utilizatorilor, mai degrabă decât profunzimea informațiilor pe care le colectează în fiecare categorie. 

Surse

Cereri de corectare

Actualizăm periodic această cercetare.

Dacă sunteți proprietarul oricăruia dintre instrumentele de inteligență artificială incluse în această cercetare și doriți să contestați informațiile de pe această pagină, suntem dispuși să le actualizăm sub rezerva analizei noastre a dovezilor pe care le furnizați. Când ne contactați în acest sens, vă rugăm să: 

  • documente comerciale care vă verifică legitimitatea (de exemplu, certificat de înmatriculare sau documente de înregistrare) 
  • informațiile de pe această pagină pe care le considerați depășite (vă rugăm să fiți specifici)
  • cum ar trebui să fie actualizat și de ce, cu link-uri către documentația care susține acest lucru (de exemplu, modificări la Termenii și condițiile)

Vă rugăm să ne contactați la [e-mail protejat] cu subiectul: „Solicitare de corecție: studiu instrumente AI”, plus numele instrumentului AI pentru care ne contactați.

Bogdan Rancea

Bogdan Rancea este co-fondatorul Ecommerce-Platforms.com și curatorul principal al ecomm.design, o vitrină a celor mai bune site-uri de comerț electronic. Cu peste 12 ani în spațiul comerțului digital, el are o mulțime de cunoștințe și un ochi aprofundat pentru experiențe grozave de retail online. În calitate de explorator tehnologic de comerț electronic, Bogdan testează și revizuiește diverse platforme și instrumente de proiectare, cum ar fi Shopify, Figma și Canva și oferă sfaturi practice proprietarilor de magazine și designerilor.