Za drobným písmem: Porozumění aplikacím AI a soukromí

Pokud se přihlásíte k odběru služby z odkazu na této stránce, může společnost Reeves and Sons Limited získat provizi. Podívejte se na naše etické prohlášení.

Umělá inteligence se rychle stala součástí současného ducha doby – ale etické úvahy kolem tohoto tématu zůstávají nevyřešeny. Kolik uživatelů si je plně vědomo toho, k čemu se přihlašují?

Platformy elektronického obchodu zde tím, že se zdokonalují v podmínkách a zásadách ochrany osobních údajů, které jsou základem nejoblíbenějších nástrojů a aplikací AI, rozbalují vše, co potřebujete vědět, když tyto nástroje používáte pro své každodenní obchodní potřeby.

Analyzovali jsme údaje a osobní údaje, které tyto nástroje shromažďují (a za jakým účelem), abychom vám pomohli určit, které Nástroje AI, software a platformy jsou pro zamýšlené použití nejvhodnější. Konzultovali jsme také právního odborníka, abychom tento žargon rozebrali za smluvními podmínkami těchto nástrojů.

Analyzovali jsme štítky ochrany osobních údajů Apple App Store pro přibližně 30 dostupných verzí mobilních aplikací oblíbených nástrojů umělé inteligence, abychom pochopili, které z nich shromažďují vaše data a proč. 

Údaje shromážděné od uživatelů (a jejich účel) jsou rozděleny do 14 kategorií, což umožňuje zjistit, které aplikace shromažďují a sledují nejvíce uživatelských dat.

Další podrobnosti naleznete v sekci metodologie na konci této stránky.

Jaká data tyto aplikace AI shromažďují?

Nástroje umělé inteligence hodnocené v tomto výzkumu shromažďují data různých typů. Některé z nich se zaměřují na osobní údaje o uživatelích — od jmen a bankovních údajů po jejich zdraví a kondici a dokonce i citlivé informace, jako je rasa/etnická příslušnost, sexuální orientace, genderová identita a politické názory. 

Jiné se týkají obsahu vytvořeného uživateli (jako jsou e-maily a zprávy, fotky, videa a zvukové nahrávky) nebo toho, jak uživatelé interagují se samotným produktem, jako je jejich historie vyhledávání v aplikaci nebo jaké reklamy viděli. Ještě neosobnější jsou diagnostické informace shromážděné za účelem zobrazení údajů o nehodách nebo spotřebě energie.

Proč tyto aplikace AI shromažďují data?

Existují různé důvody, proč aplikace shromažďují data, z nichž některé mohou být považovány za ospravedlnitelnější než jiné — například biometrické údaje nebo kontaktní informace lze použít k ověření identity uživatele.

Podobně může být vyžadován přístup k určitým datům, aby aplikace správně fungovala, včetně zamezení podvodům nebo zlepšení škálovatelnosti a výkonu.

Přesněji řečeno, aplikace pro zasílání zpráv potřebují přístup ke kontaktům, telefonním kamerám a mikrofonům, aby umožňovaly hovory, zatímco geolokace je nezbytná pro aplikace taxi nebo doručování.

Pravděpodobně méně zásadní důvody pro sběr dat zahrnují reklama nebo marketing ze strany vývojáře aplikace (například zasílání marketingových sdělení vašim uživatelům); povolení reklamy třetích stran (například sledováním dat z jiných aplikací za účelem nasměrování cílených reklam na uživatele); a analyzovat chování uživatelů pro účely, včetně posouzení účinnosti stávajících funkcí nebo plánování nových.

Ahoj mobilní uživatel 👋 Níže uvedené tabulky mohou být roloval vodorovně zobrazit všechna data, ale tato stránka rozhodně vypadá lépe Desktop.

Aplikace AI, které shromažďují vaše data a sdílejí je s inzerenty třetích stran

Záhlaví sloupců s tlačítky lze seřadit.
aplikace AI % dat sdílených s ostatními Procházení historie Kontaktní informace Identifikátory Umístění Jiné údaje Nákupy Historie vyhledávání Použití dat Počet shromážděných datových bodů
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
wombo 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Objektiv 7% 1 1
promluvit 7% 1 1
starryai 7% 1 1

Ze všech aplikací AI zahrnutých do našeho výzkumu Canva, nástroj pro grafický design, shromažďuje od svých uživatelů nejvíce dat pro reklamní účely třetích stran — kolem 36 %. Naproti tomu pět aplikací, které pro tento účel shromažďují nejméně dat, shromažďuje něco málo přes 7 %.

Data, která od vás aplikace Canva shromažďuje a sdílí s třetími stranami, zahrnují vaši historii vyhledávání, polohu, e-mailovou adresu a další informace uvedené v tabulce výše. 

Canva těsně následuje gamifikovaná aplikace pro výuku jazyků Duolingo (~36 %), Google Assistant (~21 %) a Bing od Microsoftu (~14 %) – všechny také sdílet vaše údaje s třetími stranami

Pouze z pěti aplikací, které shromažďují nejméně dat starryai (generátor obrázků) se omezuje pouze na sdílení údajů o používání.

Aplikace AI, které shromažďují vaše data pro svůj vlastní prospěch

Záhlaví sloupců s tlačítky lze seřadit.
Aplikace % dat shromážděných pro vlastní prospěch aplikace Procházení historie Kontaktní informace Identifikátory Umístění Nákupy Historie vyhledávání Použití dat Počet shromážděných datových bodů
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
Photoroom 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
Bing 14% 1 1 2
Objektiv 14% 1 1 2
Otter 7% 2 2
Jíst 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
promluvit 7% 1 1
wombo 7% 1 1

Canva také vede žebříček aplikací AI, které shromažďují uživatelská data pro své vlastní reklamní nebo marketingové účely. K tomu Canva sbírá přibližně 43 % dat jejich uživatelů.

na třetím místě, Amazon Alexa inkasuje 36 % vašich údajů za stejným účelem. To zahrnuje vaši e-mailovou adresu, fyzickou adresu, telefonní číslo, historii vyhledávání a historii nákupů plus pět dalších datových bodů. Google Assistant z tohoto důvodu shromažďuje a sdílí stejné procento dat, i když v osmi jednotlivých datových bodech, ve srovnání s deseti, které shromažďuje Amazon Alexa.

Jedno Hlasový generátor převodu textu na řeč, Speechify, patří mezi aplikace, které shromažďují nejméně dat. Podle štítků ochrany osobních údajů v seznamu Apple App Store společnost Speechify shromažďuje pouze jeden datový bod ve svůj vlastní prospěch; ID vašeho zařízení.

Aplikace AI, které shromažďují vaše data pro jakýkoli účel

Záhlaví sloupců s tlačítky lze seřadit.
Aplikace % shromážděných dat Procházení historie Kontaktní informace Kontakty Diagnostika Finanční informace Zdraví a fitness Identifikátory Umístění Jiné údaje Nákupy Historie vyhledávání Citlivé informace Použití dat Uživatelský obsah Počet shromážděných datových bodů
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Otter 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
Mluvte ELSA 43% 2 6 6 3 3 3 23
Photoroom 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Zmatená AI 36% 6 6 2 1 6 21
1 / 2

Všechny modely umělé inteligence vyžadují určitou formu školení prostřednictvím strojového učení – to znamená potřebují data.

Pokud chceme, aby se nástroje AI zlepšily a staly se užitečnějšími, lze naše soukromí chápat jako nutný kompromis proti poskytování těchto údajů.

Nicméně otázka kam hranice mezi užitkem a vykořisťováním by měl být nakreslen, a proč, je ožehavý.

Vzhledem k jeho současné proslulosti se vyplatí DeepSeek oslovit. Jeho zápis na Apple App Store uvádí, že DeepSeek neshromažďuje uživatelská data pro svůj vlastní prospěch (například vlastní marketing a reklama DeepSeek) nebo pro sdílení s třetími stranami.

Ale stojí za to na to upozornit jejich Zásady ochrany osobních údajů stanoví jinak (více o tom později). 

Jedno Samotná aplikace DeepSeek shromažďuje 50 % dat svých uživatelů, která slouží pro analýzu a funkci aplikací DeepSeek. Pro srovnání, Aplikace ChatGPT sbírá 36 %.

Některá média hlásí obavy z bezpečnostních rizik souvisejících s čínským původem DeepSeek (jak z hlediska sběru dat, tak možného šíření dezinformací) a podbízení se americkým rivalům. Obojí pravděpodobně nebude zmírněno Podmínky a zásady ochrany osobních údajů DeepSeek, což by zabralo kolem 35 minut ke čtenía jsou hodnoceny jako “velmi těžké” na Flesch-Kincaidově stupnici čitelnosti.

Bez ohledu na to, jak jsou vaše data používána, Amazon Alexa shromažďuje více dat svých uživatelů než jakákoli jiná aplikace AI zahrnuty do tohoto výzkumu. Celkově sbírá 93% vašich údajů (nebo 116 jednotlivých metrik, především kontaktních údajů, uživatelského obsahu a údajů o používání).

Google Assistant přijde na řadu, sběr 86%, následován Duolingo, která sbírá 79%.

Na druhém konci stupnice Generátor obrazu AI, Stable Diffusion, neshromažďuje žádná data. Vyplývá to ze štítků ochrany osobních údajů na seznamu Apple App Store.

I když je pravda, že všechny generativní AI modely vyžadují trénování velkého množství dat, toto školení probíhá před vývojem konkrétních aplikací. Ve většině případů tvůrci aplikací nevlastní modely umělé inteligence, které používají; sběr uživatelských dat se tedy týká funkčnosti samotné aplikace. To může vysvětlovat, proč některé z aplikací, které jsme zkoumali, nemají ve výše uvedené tabulce žádné informace.

Procházení smluvních podmínek za nástroji AI

Nyní se podívejme na právní dokumentace za různými nástroji AI, abyste to zjistili jak snadno či obtížně se čtou. To je založeno na Flesch-Kincaidově testu na úrovni čtení.

Tento systém přirovnává texty k úrovním čtení ve školách v USA (od páté do 12. třídy), dále k College, College Graduate a Professional. Texty na úrovni šesté třídy jsou definovány jako „konverzační angličtina pro spotřebitele“, zatímco texty s odborným hodnocením jsou popsány jako „extrémně obtížné čitelné“.

Čím nižší je skóre čtenosti, tím hůře se text čte.

Záhlaví sloupců s tlačítky lze seřadit.
Clipchamp 3 16 hodin minut 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 20 hodin minut 35.4 🤯🤯🤯🤯🤯
veed.io 2 15 hodin minut 37.9 🤯🤯🤯🤯🤯
Facetune 2 4 hodin minut 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 47 hodin minut 31.4 🤯🤯🤯🤯🤯🤯
Otter 1 11 hodin minut 32.4 🤯🤯🤯🤯🤯🤯
Jaspis 1 9 hodin minut 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 6 hodin minut 30.9 🤯🤯🤯🤯🤯🤯
promluvit 1 6 hodin minut 35.0 🤯🤯🤯🤯🤯🤯
Ranvej 1 2 hodin minut 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

V roce 2023 britská podnikatelská pojišťovací společnost Superscript dotazovali se majitelé 500 malých a středních podniků (MSP) zjistit, co jim zabírá nejvíce času.

Výmluvně řečeno, „dostatek spánku“ – zásadní pro fyzické a duševní zdraví a kognitivní funkce – je na třetím místě, za „dlouhou prací“ a „tříděním daňových přiznání“.

Třetina dotázaných měla pocit, že není možné dělat všechny jejich admin během pracovní dobya řekli potřeboval čtyři hodiny denně navíc, aby to všechno zvládl.

To dává tušit, jak trestuhodné může být provozování malého a středního podniku, a to čas potřebný k přečtení smluvních podmínek za nástroji, na které se spoléhají není snadné přijít.

V tomto kontextu je 40minutová doba čtení T&Cs pro přepisovací nástroje, jako je Otter, Trint a Descript, velmi důležitá. 

A za předpokladu, že je to možné pochopit nejhůře čitelné podmínky. Proto jsme požádali o expertizu právního experta.

Josilda Ndreajová, právní profesionál a licencovaný právník, prováděl složité právní záležitosti jménem klientů z Fortune 500 a poskytoval poradenství různým korporacím.

V poslední době jako nezávislá poradkyně zaměřené na právo duševního vlastnictví na průsečíku blockchainové technologie a umělé inteligence.

Josilda Ndreaj (LLM) je právní profesionál a licencovaný právník se zkušenostmi v oblasti práva duševního vlastnictví (IP).

Její kariéra právního poradce začala v prestižní mezinárodní advokátní kanceláři, která poskytuje služby klientům z Fortune 500. Zde se Josilda orientovala ve složitých právních záležitostech a poskytovala poradenství různým korporacím.

Poháněna zájmy v oblasti inovací, kreativity a vznikajících technologií se Josilda poté pustila do nezávislého poradenství a zaměřila se na právo duševního vlastnictví tím, že pokryla průnik s technologií blockchain a umělou inteligencí.

Josilda je držitelkou dvou titulů Master of Law; jeden se specializuje na občanské a obchodní právo na Univerzitě v Tiraně a druhý se zaměřením na právo duševního vlastnictví na Zhongnan University of Economics and Law.

Josilda jako taková byla má jedinečnou pozici k přezkoumání vybraných právních dokumentů těchto nástrojů AI, vytahování klíčových bodů ve prospěch těch z nás, kteří nemají dva tituly Master of Laws.

Její shrnutí jsou uvedena níže:

Blíženci (dříve Bard) nemají povinnost uvádět zdroje školení, takže nemůžeme zkontrolovat, zda je školení na materiálech chráněných autorským právem. Gemini není vyloučena z odpovědnosti za takové porušení; pokud vlastník autorských práv vznese poplatky, Blíženci nese určitou odpovědnost. Je ale důležité si uvědomit, že Blíženec je trénován na to, co mu uživatel dává. za to, Gemini vyžaduje od uživatele licenci. Pokud uživatel souhlasí s udělením této licence Gemini, ale on (uživatel) ve skutečnosti nevlastní autorská práva, odpovědnost se přesouvá na uživatele.

Uživatelé si ponechávají vlastnictví svých vstupů a výzev, ale výstupní vlastnictví je složitější. Blíženci to ve svých podmínkách jasně neuvádějí. Mnoho zákonů neuznává práva duševního vlastnictví strojů. Je však sporné tvrdit, že výstup je „vytvořený člověkem“, i když uživatel vlastní vstup.

Přesnost a spolehlivost

Vždy používejte diskrétnost, když se spoléháte na Blížence pro přesné informace. Jeho Podmínky služby uvádějí, že přesnost by se neměla automaticky předpokládat uživatelem. Proto byste měli ověřit fakta veškerý obsah generovaný z Gemini. 

Majitelé firem by nikdy neměli publikovat výstup z Gemini bez vzájemného odkazování, kontroly aktualizací a kontroly s odborníky ohledně přesnosti. V opačném případě se vystavují riziku zveřejnění zavádějících informací, které mohou mít důsledky pro pověst nebo právní následky.

Bezpečnost a důvěrnost

Google (vlastník Gemini) ve svých Zásadách ochrany osobních údajů neposkytuje žádné informace o tom, jak nakládá s důvěrnými údaji.

Používání

Společnost Google ve svých podmínkách služeb neuvádí nic o tom, zda lze obsah generovaný Gemini použít pro komerční účely. To vysvětluje omezení pro věci, jako jsou práva duševního vlastnictví ale nic speciálně pro obsah generovaný AI.

V současné době žádná legislativa nevyžaduje, aby ChatGPT veřejně deklaroval, na čem je jeho model školen. Takže, protože neodhaluje své zdroje, nemůžeme vědět, zda ChatGPT dodává nebo zpracovává obsah, který je chráněn autorskými zákony. Pokud někdo identifikuje obsah chráněný autorským právem z ChatGPT, mohou uplatnit nárok k odstranění tohoto obsahu.

Podmínky ChatGPT uvádějí, že vstup uživatele, i když je chráněn autorskými právy, se používá ke zlepšení služeb a výcviku modelu; a uživatel se z toho nemůže odhlásit. Podmínky ChatGPT říkají, že uživatel vlastní veškerý vstupní a výstupní obsah (pokud je vstupní obsah již legálně používán), ale to nezaručuje, že uživatel vlastní autorská práva k tomuto vstupnímu a výstupnímu obsahu. navíc uživatelé nemohou nic z ChatGPT vydávat za „vytvořené lidmi“.

Přesnost a spolehlivost

Uživatelé by měli ověřit všechny informace z ChatGPT. To proto ChatGPT nenese žádnou odpovědnost za poskytování přesných, aktuální obsah. Podle jeho části Vyloučení záruky uživatel přebírá všechna rizika přesnostikvalitu, spolehlivost, bezpečnost a úplnost. Proto si vždy ověřte fakta z ChatGPT; křížové odkazy, revize aktualizací a také kontrola přesnosti u odborníků. Majitelé firem mohou čelit právním nebo reputačním důsledkům, pokud před zveřejněním neověří správnost obsahu ChatGPT. 

Bezpečnost a důvěrnost

ChatGPT shromažďuje informace ze vstupů – včetně osobních údajů – potenciálně trénovat své modely (podle Zásad ochrany osobních údajů). Uživatel se může odhlásit. Situace se změní, pokud jsou data odeslána prostřednictvím připojení API (ChatGPT Enterprise, Team atd.); to proto ChatGPT nepoužívá vstupy od firemních zákazníků trénovat modely. ChatGPT má zavedena bezpečnostní opatření, ale výslovně neřeší odpovědnost za porušení zabezpečení. Vše závisí na regionálních zákonech. 

Používání

Uživatelé ChatGPT vlastní svůj vstupní a výstupní obsah; uživatelé proto musí zajistit, aby obsah neporušoval žádné zákony. Uživatelé nemohou tvrdit, že obsah vytvořil člověk, ale nemusíte říkat, že je to také generované AI. Pokud uživatelé dodržují regionální zákony a podmínky použití, lze obsah ChatGPT používat pro komerční účely, na sociálních sítích, pro placenou reklamu a další kanály. Před publikováním obsahu z ChatGPT se doporučuje ověřit si fakta, udělat si reference a dodržovat zákony. 

Zásady ochrany osobních údajů ani Podmínky neuvádějí, zda byl nástroj umělé inteligence DeepSeek vyškolen na materiálech chráněných autorským právem. Navíc také neposkytují žádné záruky, že výstupy nebudou porušovat něčí autorská práva. Uvádějí to podmínky použití DeepSeek uživatelé si ponechávají práva ke svým vstupům (výzvy), ale to nutně neznamená, že jsou chráněny autorským právem, takže uživatelé by měli podniknout kroky, aby zajistili, že to, co používají jako výzvy, není duševním vlastnictvím někoho jiného.

Podmínky také výslovně uvádějí, že uživatel je zodpovědný za všechny vstupy a odpovídající výstupy, takže s ohledem na to by si je uživatelé měli nezávisle ověřit vyhledáním právní rady a/nebo využitím databází autorských práv. Například, Veřejný katalog úřadu pro autorská práva USA umožňuje uživatelům vyhledávat registrovaná díla v USA Reverzní vyhledávání obrázků Google pomáhá zkontrolovat, zda byl obrázek dříve publikován nebo chráněn autorskými právy.

Přesnost a spolehlivost

Podmínky použití DeepSeek říkají, že výstupy jsou generovány AI, a proto mohou obsahovat chyby a/nebo opomenutí. To konkrétně se týká lékařských, právních a finančních problémů na které se uživatelé mohou ptát DeepSeek a jak výstupy DeepSeek nepředstavují radu. Ale v širším slova smyslu říká totéž o „profesionálních problémech“, což může být téměř cokoli – od marketingu a výzkumu po technologie a vzdělávání a dále – a že výstupy nejsou 'reprezentovat názory žádný profesionální obor.' Uživatelé by proto měli nezávisle ověřit přesnost všech výstupů DeepSeek.

Bezpečnost a důvěrnost

Zásady ochrany osobních údajů DeepSeek vysvětlují, že uživatelské vstupy jsou zpracovávány za účelem generování výstupů, ale také k zlepšit službu DeepSeek. To zahrnuje „školení a zlepšování [jejich] technologií“. Uživatelé by proto měli být opatrní při zadávání citlivých informací, a přestože DeepSeek má 'komerčně rozumné' opatření na ochranu dat a informací používaných jako vstupy, neposkytuje žádné absolutní záruky. Podmínky DeepSeek uvádějí, že nezveřejňují vstupy ani výstupy na veřejných fórech, ale některé mohou být sdíleny s třetími stranami.

Používání

Jakýkoli obsah, který uživatelé vygenerují prostřednictvím DeepSeek, lze použít pro komerční účely, ale kvůli šedým oblastem kolem plagiátorství a přesnosti by uživatelé měli před použitím tímto způsobem obsah ověřit. Podmínky služby DeepSeek neodkazují na žádná omezení ohledně toho, kde na světě mohou uživatelé publikovat tento obsah, ale jasně uvádějí, že uživatelé musí prohlásit jej za vytvořený umělou inteligencí, „aby upozornil veřejnost na syntetickou povahu obsahu“.

Canva není ze zákona povinna odhalovat své zdroje pro tréninková data. Proto nevíme, zda se používá materiál chráněný autorským právem. Uživatel vlastní veškerý vstupní a výstupní obsah (ne Canva), ale Canva může tento obsah použít ke zlepšení svých služeb. 

Přesnost a spolehlivost

Canva medvědi žádnou odpovědnost za správnost obsahu. Uživatel by si měl vždy ověřit fakta. 

Bezpečnost a důvěrnost

Canva používá vstupní obsah k trénování svého modelu, To je odpovědnost uživatele vyhnout se používání důvěrných nebo osobních informací pro vstupy. Canva se snaží filtrovat takové vstupy pro modelový trénink, ale neexistují žádné záruky. Nástroj AI společnosti Canva nenese odpovědnost za bezpečnostní problémy způsobené uživatelem.

Používání

Uživatelé Canva mohou používat generovaný obsah pro komerční účely. Existují Podmínky, i když jako nepublikovat zavádějící obsah. Společnost má a seznam zakázaných věcív části s názvem „Buďte dobrým člověkem“.

Podobně jako ChatGPT, DALL-E neuvádí zdroje pro své modelové školení. Pokud však najdete obsah chráněný autorským právem, vy může podat žádost o odstranění. Je obtížné zkontrolovat, zda DALL-E porušuje autorská práva, protože žádná legislativa nevyžaduje, aby DALL-E odhalila své zdroje dat. Vstup uživatele v souladu s podmínkami lze použít k trénování modelu DALL-E – i když se jedná o obsah chráněný autorským právem. Uživatel se může odhlásit.  

DALL-E vlastní vstupní a výstupní obsah uživatelů (ne DALL-E), ale to neznamená, že uživatel má autorská práva na uvedený obsah. Také uživatelé nelze tvrdit, že obsah DALL-E je vytvořen člověkem.

Přesnost a spolehlivost

Medvědi DALL-E žádnou odpovědnost za nepřesný obsah. Jeho Podmínky přenášejí veškerou odpovědnost na uživatele. Tyto závazky zahrnují spolehlivost obsahu, přesnost, kvalitu, bezpečnost a úplnost. Takže před zveřejněním uživatelé by měli vždy odkazovat, kontrolovat aktualizace, ověřovat fakta a konzultovat s odborníky, protože zveřejnění nepravdivých informací může vést k poškození dobré pověsti nebo právním důsledkům. 

Bezpečnost a důvěrnost

Zásady ochrany osobních údajů a smluvní podmínky společnosti DALL-E nikdy výslovně neřeší odpovědnost v případě porušení zabezpečení. DALL-E má však zavedena bezpečnostní opatření. Kdo nese odpovědnost v případě hacknutí, závisí na regionálních zákonech.

DALL-E shromažďuje vstupy uživatelů pro modelování, dokonce i osobní údaje, ale můžete se odhlásit. S API však DALL-E zpracovává vstupní data odlišně; k trénování svých modelů nepoužívá data od podnikových uživatelů

Používání

Jedno uživatel vlastní vstupní a výstupní obsah DALL-E; musí také zajistit, aby obsah neporušoval žádné zákony nebo podmínky DALL-E. Nemůžete tvrdit, že obsah z DALL-E je vytvořený lidmi, ale ani nemusíte říkat, že je generován AI. 

DALL-E můžete používat pro komerční účely, pokud budete dodržovat všechny zákony a podmínky DALL-E. Předpisy se mohou změnit, ale v době psaní tohoto článku mohou uživatelé publikovat obsah DALL-E na sociálních sítích, v reklamách a na jiných kanálech. Uživatelé by měli vždy uvádět správné odkazy a přesnost ověření faktů, aby nedošlo k porušení jakýchkoli zákonů.

Bing nemá žádnou povinnost sdílet své zdroje školení dat, takže je velmi obtížné zjistit, zda Bing AI neúmyslně používá obsah chráněný autorským právem. Ačkoli je to složité na identifikaci, uživatelé mohou vznášet nároky na obsah chráněný autorským právem. Smlouva o poskytování služeb společnosti Microsoft říká, že Bing AI využívá uživatelské vstupy a výstupy ke zlepšení svého modelu, ale neexistuje nic formálního, aby se zabránilo krádeži duševního vlastnictví.

Jedno Smlouva o službách říká, že uživatelé udělují společnosti Microsoft celosvětovou a bezplatnou licenci na duševní vlastnictví k používání vašeho obsahu. Dále Bing/Microsoft přebírá uživatelské vstupy k trénování modelů umělé inteligence.

Přesnost a spolehlivost

Společnost Microsoft neposkytuje žádné záruky za přesnost nebo aktuálnost obsahu z jejích služeb AI. Proto byste si měli ověřit vše z nástrojů AI společnosti Microsoft, zejména pokud jste vlastníkem firmy, který se chce vyhnout jakýmkoliv reputačním a právním následkům. 

Bezpečnost a důvěrnost

Nástroje AI společnosti Microsoft (včetně Bing AI) používat osobní a důvěrná uživatelská data k výcviku svých modelů. Její servisní smlouva se nevztahuje na obsah generovaný umělou inteligencí; místo toho se snaží přesunout veškerou odpovědnost za obsah AI na uživatele. Společnost Microsoft také nepřebírá žádnou odpovědnost pro zásady ochrany soukromí a zabezpečení svých zákazníků. Stručně řečeno, pokud při používání Bing AI dojde k porušení vašich dat, je to váš problém, nikoli Microsoft.  

Používání

Společnost Microsoft si nenárokuje vlastnictví uživatelského obsahu, ale konkrétně nereguluje obsah generovaný umělou inteligencí, kde je vlastnictví nejisté. Smlouva o poskytování služeb umožňuje lidem používat obsah pro komerční účely s několika významnými ustanoveními: musíte souhlasit s tím, že obsah generovaný umělou inteligencí postrádá lidskou kreativitu, takže jej nelze prohlásit za duševní vlastnictví; rovněž nesmíte porušovat práva duševního vlastnictví jiných osob. Stručně řečeno, nemůžete používat duševní vlastnictví od ostatních, ale cokoli uděláte pomocí Bing, pravděpodobně není vaše vlastní duševní vlastnictví.

Quillbot má žádnou povinnost odhalit zdroje, které používá k výcviku modelů. Společnost se však zajímavě snaží regulovat jednu unikátní situaci: co když je zdrojem modelového tréninku výstup AI? Quillbot se v podstatě snaží minimalizovat potenciál výstupu chráněného autorskými právy, ale uvádí, že stále existuje šance, že výstup bude chráněn autorským právem, pokud uživatelé vloží obsah chráněný autorským právem. Aby to bylo ještě více matoucí, Quillbot se snaží pokrýt všechny oblasti tím, že říká, že uživatelé udělují Quillbotovi neomezenou sublicencovatelnou licenci a zároveň tvrdí, že uživatelé vlastní všechny jejich výstupy. 

Přesnost a spolehlivost

Quillbot medvědi žádnou odpovědnost za přesnost nebo spolehlivost. Uživatelé by měli být velmi opatrní a ověřit si všechna fakta z Quillbota. 

Bezpečnost a důvěrnost

Quillbot má opatření na ochranu soukromí uživatelů, ale přesto může skončit zpracováním osobních údajů. Existují speciální ochrany soukromí dětí. Odpovědnost za ztrátu dat v důsledku hackování se řeší případ od případu. Quillbot uvádí, že uživatel by měl podniknout kroky, aby zabránil hacknutí svých osobních údajů, a že Quillbot má zavedené prvky ochrany dat. 

Používání

Uživatelé Quillbot mohou publikovat vygenerovaný obsah pro komerční účely, ale možná budete muset dodržovat některá pravidla, jako je nepublikovat škodlivý nebo zavádějící obsah. Quillbot's Podmínky neříkejte, že musíte prohlásit, že jeho obsah je generován AI. Stručně řečeno, uživatel může publikovat obsah generovaný Quillbotem pokud to neporušuje žádné zákony nebo práva. 

Pixlr nezveřejňuje své zdroje pro školení modelů AI, protože pro ně neexistuje žádná zákonná povinnost tak učinit. Jeho Podmínky uvádějí, že uživatel vlastní obsah, ale také uživatelé udělte společnosti Pixlr licenci k používání obsahu. Jedná se o pokus minimalizovat používání obsahu chráněného autorským právem. 

Přesnost a spolehlivost

Pixlr nenese žádnou odpovědnost za nepřesnosti v obsahu generovaném umělou inteligencí. Uživatelé by si měli dávat pozor na to, aby si vše z Pixlr ověřili. 

Bezpečnost a důvěrnost

Pixlr přebírá uživatelské vstupy pro trénování modelu AI. Přenáší zátěž na uživatele, aby byl opatrný při zadávání osobní nebo důvěrné informace. Pixlr se zříká své odpovědnosti za filtrování některých informací ze svých tréninkových dat, ačkoli některé filtry používá k blokování osobních nebo důvěrných informací. tvrdí Pixlr žádnou odpovědnost za bezpečnostní problémy způsobené akcemi uživatelů

Používání

Uživatelé mohou publikovat obsah generovaný AI vytvořený prostřednictvím Pixlr pro komerční účely (i když platí určité podmínky). Podmínky nevyžadují, abyste uvedli, že je něco generováno AI. Uživatelé však stále nesou odpovědnost za porušení práv nebo zákonů. 

Střední cesta uživatelé udělují práva společnosti ke všem aktivům vytvořeným jejím prostřednictvím, avšak uživatel také vlastní všechna aktiva. Existují výjimky, například jak si nemůžete nárokovat vlastnictví, pokud ano právě upscaloval obrázek od původního tvůrce.

Přesnost a spolehlivost

Midjourney nenese žádnou odpovědnost za spolehlivost a přesnost jeho obsahu. Uživatelé by proto měli věnovat zvýšenou pozornost ověřování faktů a ověřování spolehlivosti. 

Bezpečnost a důvěrnost

Midjourney trénuje svůj model pomocí uživatelských vstupů, i když zahrnuje osobní nebo důvěrné údaje. Midjourney tvrdí, že uživatel by si měl dávat pozor na citlivá data, takže to není jejich problém. Společnost se pokouší odfiltrovat určité informace pro modelové školení, ale není to povinné. Midjourney nenese žádnou odpovědnost za bezpečnostní problémy, které mohou nastat v důsledku akcí uživatele. 

Používání

Uživatelé Midjourney mohou publikovat generovaný obsah pro komerční účely. Některé podmínky, například požadavek předplatit verzi Pro pokud společnost vydělává více než 1 milion USD ročně, uplatnit. V době psaní tohoto článku nemusí uživatelé tvrdit, že je něco generováno AI z Midjourney, i když se připravuje legislativa, která to změní. Uživatelé mohou obecně používat jakýkoli obsah Modjourney, pokud neporušuje žádná práva nebo zákony. 

Clipchamp je produkt společnosti Microsoft, takže si nečiní nárok na sdílení zdrojů dat pro modelování. Proto je těžké říci, zda nástroj AI neúmyslně používá data chráněná autorským právem. Někdo musí identifikovat porušení autorských práv, aby mohl vznést nárok, což je nepravděpodobné. Smlouva o poskytování služeb společnosti Microsoft říká může využívat uživatelské vstupy a výstupy ke zlepšení služeba Microsoft nereguluje záležitosti duševního vlastnictví. Také, uživatelé udělují společnosti Microsoft celosvětovou bezplatnou licenci k duševnímu vlastnictví

Přesnost a spolehlivost

Clipchamp a Microsoft nezaručuje nic, pokud jde o přesnost nebo včasnost svých nástrojů AI, takže uživatelé by si měli před zveřejněním ověřit všechna fakta. To platí zejména pro majitele podniků, kteří mohou čelit právním důsledkům a důsledkům v oblasti pověsti. 

Bezpečnost a důvěrnost

Clipchamp a Microsoft používat osobní a důvěrné údaje pro modelový trénink. Microsoft se snaží přenést odpovědnost za všechny problémy s obsahem na uživatele. Totéž platí pro hackování a narušení bezpečnosti; Pokud se něco stane, je odpovědností uživatele. 

Používání

Clipchamp a Microsoft se vyhýbají regulaci obsahu generovaného umělou inteligencí, nikdy netvrdit, že Microsoft vlastní obsah. Technicky Microsoft říká, že uživatel jej vlastní, ale bez práv duševního vlastnictví. Uživatel může publikovat obsah Clipchamp pro komerční účely se dvěma podmínkami: nesmíte porušovat práva duševního vlastnictví nebo tvrdit, že máte práva k duševnímu vlastnictví pro generovaný obsah. 

The Looka Podmínky uvádí, že společnost nemá žádné povinnosti sdílet zdroje školení dat, takže to tak není. Uživatelé nesou všechna rizika při používání obsahu generovaného Looka. 

Přesnost a spolehlivost

Looka nepřebírá žádnou odpovědnost za přesnost a spolehlivost výstupu ze svých nástrojů AI. Uživatelé by si měli ověřit všechna fakta a zkontrolujte spolehlivost. 

Bezpečnost a důvěrnost

Looka používá vstupní data – dokonce i potenciálně osobní a důvěrná data – k trénování svého modelu, takže uživatel je odpovědný za to, že tento typ dat ve svém vstupu nepoužije. Looka se snaží taková data filtrovat, ale oni tvrdí, že to dělat nemusí. Všechny bezpečnostní problémy jsou navíc zátěží uživatele. 

Používání

Uživatelé Looka mohou používat obsah generovaný umělou inteligencí pro komerční účely, ale možná budou muset dodržovat podmínky resp zaplatit poplatek. Uživatelé nemusí svůj generovaný obsah označovat jako generovaný AI. Uživatelé by se měli vyvarovat publikování vytvořeného obsahu, který porušuje práva nebo zákony. 

Není možné zjistit, zda Speechify trénuje svůj model na materiálech chráněných autorským právem. Prostě nevíme. Podmínky Speechify doporučují nepoužívat pro vstupy materiál chráněný autorským právem, což naznačuje, že některé výstupy mohou obsahovat data chráněná autorským právem. Speechify tvrdí, že za to nenese žádnou odpovědnost

Přesnost a spolehlivost

Speechify, podle jeho Podmínky, nenese odpovědnost za správnost svých výstupů. Uživatelé by měli vždy zkontrolovat aktuálnost, spolehlivost a přesnost pomocí Speechify. 

Bezpečnost a důvěrnost

promluvit přenáší veškerou odpovědnost na uživatele, pokud jde o zadávání citlivých nebo osobních údajů. Nástroj používá vstupy k trénování modelů, takže uživatelé by měli být opatrní. Speechify nemusí nutně filtrovat citlivá nebo osobní data, ale pomocí některých filtrů se o to snaží. Veškerá odpovědnost za bezpečnostní problémy přechází na uživatele. 

Používání

Uživatelé Speechify mohou používat výstupy pro komerční účely, s některými podmínkami, jako je nutnost předplatit nebo získat licenci. Uživatelé nemusíte deklarovat, že obsah Speechify je generován AI. Uživatelé Speechify by však nikdy neměli porušovat práva nebo zákony při publikování výstupů Speechify. 

Kapwing Podmínky přenášejí veškerou odpovědnost za duševní vlastnictví a přesnost na uživatele. Všichni uživatelé udělují Kapwingu nevýhradní licenci, ale uživatelé si ponechávají vlastnictví obsahu. Kapwing nezveřejňuje nic o tom, zda používá vstupní data pro trénování modelů. 

Přesnost a spolehlivost

Kapwing přenáší veškerou odpovědnost za přesnost na uživatele, zejména jakékoli právní důsledky a důsledky pro pověst.

Bezpečnost a důvěrnost

Uživatelé Kapwingu přebírají všechna rizika, když se rozhodnou vložit důvěrné informace do svého nástroje AI. Nenabízí také žádnou záruku ani odpovědnost za zabezpečení služby.

Používání

Obsah Kapwing můžete publikovat komerčně, ale Kapwing doporučuje uživatelům, aby byli opatrní. Jejich podmínky neříkají, zda uživatelé musí deklarovat, že výstup z Kapwingu je generován AI.

Otter.ai uvádí, že ve svých službách nepovoluje materiály porušující autorská práva, ale je obtížné toto tvrzení ověřit. Uživatelé si ponechávají vlastnictví a autorská práva na vstupy a příspěvky v Otter.ai, ale Otter.ai říká uživatelé jsou odpovědní for nevkládání dříve chráněného obsahu. Vydra.ai mohou také používat vstupy pro strojové učení.

Přesnost a spolehlivost

Otter.ai se vylučuje z odpovědnosti za přesnost a spolehlivost, takže uživatelé by měli vždy ověřovat obsah. Použití fakticky zavádějících nebo nesprávných informací by mohlo uživateli způsobit právní problémy nebo problémy s pověstí. 

Bezpečnost a důvěrnost

Veškeré riziko prozrazení důvěrných informací na Otter.ai patří uživateli. 

Používání

Uživatelé mohou publikovat s komerčním záměrem protože uživatelé jsou vlastníky obsahu z Otter.ai. To znamená, že obsah generovaný AI nemá jasná pravidla vlastnictví. Otter.ai také uvádí jeho přepsané poznámky lze vyhledávat a sdílet.

PhotoRoom by mohl přijímat uživatelské vstupy a výstupy pro modelový trénink, ale existují omezené informace o tom, zda to služba dělá nebo ne. Podmínky PhotoRoom uživatelům připomínají, aby se vyvarovali vkládání obsahu chráněného autorskými právy. Veškerou odpovědnost nesou uživatelé pro tohle. 

Přesnost a spolehlivost

Photoroom nenese žádnou odpovědnost za přesnost nebo spolehlivost obsahu generovaného umělou inteligencí. Uživatelé by si to měli ověřit pomocí vlastních kontrol.

Bezpečnost a důvěrnost

PhotoRoom využívá vstupy k trénování svých modelů. Při vkládání důvěrných informací zodpovídají uživatelé or Osobní údaje. Služba se pokouší filtrovat tyto typy vstupů, ale netvrdí, že to vyžaduje. Uživatelé nesou veškerou odpovědnost za bezpečnostní problémy. 

Používání

Obsah PhotoRoom lze použít pro komerční účely, ale mohou platit některé podmínky, například přihlášení k odběru. Podmínky uvádějí, že nemusíte označovat obsah jako generovaný AI. Uživatelé mohou zaznamenat další důsledky, pokud poruší práva nebo zákony. 

Odmítnutí odpovědnosti

Tyto informace slouží pouze pro obecné informační účely a neměly by být brány jako právní poradenství. Platformy elektronického obchodu nepřebírají žádnou odpovědnost za chyby nebo opomenutí. Poraďte se s vhodným právním odborníkem, který vám poskytne rady a pokyny přizpůsobené vašim konkrétním potřebám a okolnostem.

Proč investovat do čističky vzduchu?

Díky všudypřítomnosti umělé inteligence je pro nás všechny stále pravděpodobnější, že budeme používat nástroje a aplikace založené na této technologii – přesto mnoho z nás nemá čas potřebný k přečtení jejich smluvních podmínek. 

V roce 2017 síť profesionálních služeb Deloitte zjistil že 91% spotřebitelů „ochotně přijměte právní podmínky, aniž byste je četli“ — stoupá na 97 % ve věku 18 až 34 let.

Vzhledem k tomu, kolik AI T&C jsme ohodnotili nízkým skóre čitelnosti, to vypadá neprostupnost právních předpisů těchto dokumentů odrazuje uživatele od pokusu jim porozumět. 

Pracovali jsme s právníkem, aby nám dokumenty analyzoval, ale je sporné, zda by to bylo nutné.

Doufáme, že tento průzkum – včetně jeho hodnocení čitelnosti a odborných znalostí Josildy Ndreaj ohledně podmínek, které je třeba mít na paměti – vám pomůže při výběru aplikací a nástrojů umělé inteligence. 

Metodika a zdroje

Jak jsme provedli výzkum

Počínaje seznamem asi 90 nástrojů a aplikací umělé inteligence jsme nejprve shromáždili právní dokumentaci každého nástroje, od smluvních podmínek až po zásady ochrany osobních údajů. Poté jsme zaznamenali délky slov těchto dokumentů a vypočítali jejich skóre čitelnosti pomocí Flesch-Kincaidova systému klasifikace. Dále jsme požádali o pomoc právní expertku Josildu Ndreaj (LLM), která zkontrolovala výběr těchto právních dokumentů a identifikovala klíčové body, kterých by si uživatelé měli být vědomi.

U přibližně 30 nástrojů umělé inteligence, které mají k dispozici verze mobilních aplikací, jsme každý prohledali v obchodě Apple App Store a zaznamenali jsme jejich štítky ochrany osobních údajů zobrazené na jejich záznamech. Ty jsou rozděleny do 14 kategorií údajů, které lze od uživatelů shromažďovat, a za jakým účelem. Abychom vypočítali, které aplikace AI shromáždily nejvíce dat, změřili jsme, v kolika ze 14 možných kategorií tyto aplikace sledovaly své uživatele. 

Je důležité poznamenat, že těchto 14 kategorií je dále rozděleno do jednotlivých datových bodů. Například 'Contact Info' obsahuje pět datových bodů, které jsou; 'Jméno', 'E-mailová adresa', 'Telefonní číslo', 'Fyzická adresa' a 'Jiné kontaktní údaje uživatele'. Chcete-li zjistit, které aplikace shromažďují nejvíce jednotlivých datových bodů, podívejte se na poslední sloupec v každé z tabulek.

Některé aplikace budou shromažďovat více jednotlivých datových bodů než ty, které se v žebříčku objevují výše. Důvodem je to, že naše metodika hodnocení bere v úvahu, které aplikace shromažďují data ve většině kategorií celkově, což navrhuje širší, a tedy „kompletnější“ obraz uživatelských dat, spíše než hloubku informací, které shromažďují v každé kategorii. 

Zdroje

Požadavky na opravu

Tento průzkum pravidelně aktualizujeme.

Pokud jste vlastníkem některého z nástrojů umělé inteligence zahrnutých do tohoto výzkumu a chtěli byste zpochybnit informace na této stránce, jsme ochotni je aktualizovat na základě naší kontroly důkazů, které poskytnete. Když nás v tomto ohledu kontaktujete, žádáme vás o: 

  • obchodní dokumenty ověřující vaši legitimitu (například výpis z obchodního rejstříku nebo registrační dokumenty) 
  • informace na této stránce, o kterých se domníváte, že jsou zastaralé (buďte prosím konkrétní)
  • jak by měl být aktualizován a proč, s odkazy na dokumentaci, která to podporuje (například dodatky ke smluvním podmínkám)

Kontaktujte nás prosím na adrese [chráněno e-mailem] s předmětem: 'Požadavek na opravu: studie nástrojů AI' a názvem nástroje AI, kvůli kterému nás kontaktujete.

Bogdan Rancea

Bogdan Rancea je spoluzakladatelem Ecommerce-Platforms.com a hlavním kurátorem ecomm.design, přehlídky nejlepších webových stránek elektronického obchodu. S více než 12 lety v oblasti digitálního obchodu má bohaté znalosti a bystré oko pro skvělé online maloobchodní zážitky. Jako technický průzkumník elektronického obchodu Bogdan testuje a kontroluje různé platformy a návrhářské nástroje, jako je např Shopify, Figma a Canva a poskytuje praktické rady pro majitele obchodů a designéry.