Home » Artykuły » Za drobnym drukiem: zrozumienie aplikacji AI i prywatności
Za drobnym drukiem: zrozumienie aplikacji AI i prywatności
Jeśli subskrybujesz usługę za pośrednictwem łącza na tej stronie, firma Reeves and Sons Limited może otrzymać prowizję. Zobacz nasze oświadczenie etyczne.
Sztuczna inteligencja szybko stała się częścią współczesnego ducha epoki — mimo to kwestie etyczne związane z tym tematem pozostają nierozstrzygnięte. Ilu użytkowników jest w pełni świadomych tego, na co się pisze?
W tym artykule, szczegółowo omawiając warunki, regulaminy i politykę prywatności najpopularniejszych narzędzi i aplikacji opartych na sztucznej inteligencji, Ecommerce Platforms ujawnia wszystko, co musisz wiedzieć, korzystając z tych narzędzi w codziennej działalności biznesowej.
Przeanalizowaliśmy dane i informacje osobiste gromadzone przez te narzędzia (oraz cel ich gromadzenia), aby pomóc Ci ustalić, które Narzędzia AIoprogramowanie i platformy są najbardziej odpowiednie do zamierzonego celu. Skonsultowaliśmy się również z ekspertem prawnym, aby rozjaśnić żargon za warunkami i postanowieniami tych narzędzi.
Korzystając z aplikacji AI, wyrażasz zgodę na zbieranie przez nią (przynajmniej części) Twoich danych
Przeanalizowaliśmy etykiety prywatności w sklepie Apple App Store dla około 30 dostępnych wersji aplikacji mobilnych popularnych narzędzi opartych na sztucznej inteligencji, aby dowiedzieć się, które z nich zbierają Twoje dane i dlaczego.
Zebrane od użytkowników dane (i cel tych danych) podzielono na 14 kategorii, co pozwala ustalić, które aplikacje zbierają i śledzą najwięcej danych użytkowników.
Więcej szczegółów znajdziesz w części poświęconej metodologii na końcu tej strony.
Jakie dane gromadzą te aplikacje AI?
Narzędzia sztucznej inteligencji oceniane w tym badaniu zbierają dane różnego typu. Niektóre z nich skupiają się na danych osobowych użytkowników — od nazw ekranowych i danych bankowych, po stan zdrowia i kondycję fizyczną, a nawet poufne informacje, takie jak rasa/pochodzenie etniczne, orientacja seksualna, tożsamość płciowa i poglądy polityczne.
Inne odnoszą się do treści tworzonych przez użytkowników (takich jak e-maile i wiadomości, zdjęcia, filmy i nagrania dźwiękowe) lub do tego, jak użytkownicy wchodzą w interakcję z samym produktem, jak ich historia wyszukiwania w aplikacji lub jakie reklamy widzieli. Jeszcze bardziej bezosobowe są informacje diagnostyczne zbierane w celu pokazania danych o awariach lub zużyciu energii.
Dlaczego aplikacje AI zbierają dane?
Tam są różne powody, dla których aplikacje zbierają dane,niektóre z nich mogą być postrzegane jako bardziej uzasadnione niż inne — na przykład dane biometryczne lub dane kontaktowe mogą być wykorzystane do uwierzytelnienia tożsamości użytkownika.
Podobnie, dostęp do niektórych danych może być konieczny, aby aplikacja działała prawidłowo, w tym w celu zapobiegania oszustwom lub poprawy skalowalności i wydajności.
Dokładniej rzecz biorąc, aplikacje do przesyłania wiadomości potrzebują dostępu do kontaktów, aparatów w telefonie i mikrofonów, aby móc wykonywać połączenia, natomiast geolokalizacja jest niezbędna w przypadku aplikacji taksówkarskich i dostawczych.
Do mniej istotnych powodów gromadzenia danych zalicza się: reklama lub marketing prowadzony przez twórcę aplikacji (na przykład w celu wysyłania komunikatów marketingowych do użytkowników); umożliwianie reklam stron trzecich (na przykład poprzez śledzenie danych z innych aplikacji w celu kierowania ukierunkowanych reklam do użytkownika); oraz analizowanie zachowań użytkowników, m.in. w celu oceny skuteczności istniejących funkcji lub planowania nowych.
Hej użytkowniku mobilny 👋 Poniższe tabele mogą być przewijane poziomo aby zobaczyć wszystkie dane, ale ta strona zdecydowanie wygląda lepiej Desktop.
Aplikacje AI, które zbierają Twoje dane, aby udostępniać je zewnętrznym reklamodawcom
Nagłówki kolumn z przyciskami można sortować.
Aplikacja AI
% danych udostępnionych innym osobom
Historia przeglądania
Informacje kontaktowe
Identyfikatory
Lokalizacja
Inne dane
Zakupy
Historia wyszukiwania
Dane użytkowania
Liczba zebranych punktów danych
Canva
36%
2
2
1
1
2
8
Duolingo
36%
2
1
1
1
2
7
Google Assistant
21%
1
1
1
3
Bing
14%
1
1
2
Pixai
14%
1
1
2
wombo
14%
1
1
2
ChatGPT
7%
1
1
Dżin AI
7%
1
1
soczewka
7%
1
1
Perorować
7%
1
1
Gwiaździste AI
7%
1
1
Ze wszystkich aplikacji AI uwzględnionych w naszym badaniu, Canva, narzędzie do projektowania graficznego, zbiera najwięcej danych od swoich użytkowników na potrzeby reklam stron trzecich — około 36%. Natomiast pięć aplikacji, które gromadzą w tym celu najmniej danych, zbiera nieco ponad 7%.
Dane, które aplikacja Canva zbiera od Ciebie i udostępnia stronom trzecim, obejmują historię wyszukiwania, lokalizację, adres e-mail i inne informacje przedstawione w tabeli powyżej.
Tuż za Canvą znajduje się aplikacja do nauki języków w formie gier Duolingo (~36%), Google Assistant (~21%) i Bing Microsoftu (~14%) — wszystkie udostępniać Twoje dane również osobom trzecim.
Spośród pięciu aplikacji, które zbierają najmniej danych, tylko gwiaździsty (generator obrazów) ogranicza się wyłącznie do udostępniania danych o użytkowaniu.
Aplikacje AI, które zbierają Twoje dane dla własnej korzyści
Nagłówki kolumn z przyciskami można sortować.
aplikacji
% danych zebranych na korzyść samej aplikacji
Historia przeglądania
Informacje kontaktowe
Identyfikatory
Lokalizacja
Zakupy
Historia wyszukiwania
Dane użytkowania
Liczba zebranych punktów danych
Canva
43%
2
2
1
1
1
2
9
Facetune
36%
2
4
2
2
4
14
Amazon Alexa
36%
4
2
1
1
2
10
Google Assistant
36%
1
2
2
1
2
8
fotopokój
29%
1
1
1
1
4
Duolingo
21%
2
1
1
4
Gwiaździste AI
14%
2
1
3
Bing
14%
1
1
2
soczewka
14%
1
1
2
Wydra
7%
2
2
Jeść
7%
1
1
Poe
7%
1
1
Pixai
7%
1
1
Perorować
7%
1
1
wombo
7%
1
1
Canva zajmuje również czołowe miejsce w rankingu aplikacji AI zbierających dane użytkowników na potrzeby własnej reklamy lub marketinguAby to zrobić, Canva zbiera około 43% danych ich użytkowników.
Na trzecim miejscu Amazon Alexa zbiera 36% Twoich danych w tym samym celu. Obejmuje to Twój adres e-mail, adres fizyczny, numer telefonu, historię wyszukiwania i historię zakupów, a także pięć innych punktów danych. Google Assistant Z tego powodu gromadzi i udostępnia taki sam odsetek danych, choć w ośmiu indywidualnych punktach danych, w porównaniu z dziesięcioma, które gromadzi Amazon Alexa.
Kurs Generator głosu zamieniający tekst na mowę, Speechify, należy do aplikacji zbierających najmniej danych. Zgodnie z etykietami prywatności w sklepie Apple App Store firma Speechify zbiera tylko jeden punkt danych dla własnej korzyści; identyfikator Twojego urządzenia.
Aplikacje AI, które zbierają Twoje dane w dowolnym celu
Nagłówki kolumn z przyciskami można sortować.
aplikacji
% zebranych danych
Historia przeglądania
Informacje kontaktowe
Kontakt
Diagnostyka
Informacje finansowe
zdrowie i fitness
Identyfikatory
Lokalizacja
Inne dane
Zakupy
Historia wyszukiwania
Wrażliwe informacje
Dane użytkowania
treści użytkownika
Liczba zebranych punktów danych
Amazon Alexa
93%
24
4
9
3
4
10
8
4
5
5
4
13
23
116
Google Assistant
86%
4
8
2
6
1
8
5
2
1
5
8
8
58
Duolingo
79%
10
1
7
1
12
4
4
6
1
7
7
60
Canva
64%
11
3
1
8
5
4
5
10
6
53
Wydra
57%
7
3
5
7
2
3
2
11
40
Poe
57%
2
2
3
6
2
3
2
5
25
Facetune
50%
6
8
18
8
8
14
2
64
Bing
50%
1
2
6
3
3
2
3
20
DeepSeek
50%
2
3
4
1
1
2
3
16
Mem
43%
6
4
6
6
6
4
32
ELSA Mów
43%
2
6
6
3
3
3
23
fotopokój
43%
2
1
9
3
4
1
20
Trint
43%
1
2
1
4
1
2
11
ChatGPT
36%
4
8
5
7
2
26
Sztuczna inteligencja
36%
6
6
2
1
6
21
1 / 2
Wszystkie modele sztucznej inteligencji wymagają pewnej formy szkolenia za pomocą uczenia maszynowego, co oznacza, że potrzebują danych.
Jeśli chcemy, aby narzędzia AI się rozwijały i stawały się bardziej użyteczne, nasza prywatność może być postrzegana jako konieczny kompromis w zamian za udostępnienie tych danych.
Jednak pytanie gdzie granica między użytecznością a eksploatacją należy narysować i dlaczego, jest to kwestia trudna.
Biorąc pod uwagę obecną złą sławę DeepSeek, warto się nim zająćW ofercie Apple App Store podano, że DeepSeek nie gromadzi danych użytkowników dla własnych korzyści (na przykład na potrzeby marketingu i reklam DeepSeek) ani w celu udostępniania ich osobom trzecim.
Kurs Sama aplikacja DeepSeek zbiera 50% danych swoich użytkowników, który obsługuje funkcje analityczne i aplikacji DeepSeek. Dla porównania, Aplikacja ChatGPT zbiera 36%.
Niektóre media zgłaszają obawy dotyczące zagrożeń bezpieczeństwa związanych z chińskim pochodzeniem DeepSeek (zarówno pod względem gromadzenia danych, jak i możliwego rozprzestrzeniania dezinformacji) oraz osłabieniem amerykańskich rywali. Oba te problemy prawdopodobnie nie zostaną złagodzone przez Warunki korzystania z serwisu i polityka prywatności DeepSeek, co zajęłoby około 35 minut na przeczytaniei są oceniane jako "bardzo trudne" w skali czytelności Flescha-Kincaida.
Niezależnie od tego, w jaki sposób wykorzystywane są Twoje dane, Amazon Alexa zbiera więcej danych swoich użytkowników niż jakakolwiek inna aplikacja AI włączono do tego badania. Ogólnie rzecz biorąc, zbiera 93% Twoich danych (lub 116 indywidualnych metryk, głównie danych kontaktowych, treści użytkowników i danych dotyczących użytkowania).
Google Assistant następnie następuje zbieranie 86%, śledzony przez Duolingo, który zbiera 79%.
Na drugim końcu skali Generator obrazów AI, Stable Diffusion, nie zbiera żadnych danychTak wynika z etykiet prywatności zamieszczonych na liście aplikacji w sklepie Apple App Store.
Chociaż to prawda, że wszystko generatywna sztuczna inteligencja modele wymagają ogromnych ilości danych do trenowania, to trenowanie odbywa się przed opracowaniem konkretnych aplikacji. W większości przypadków twórcy aplikacji nie są właścicielami używanych przez siebie modeli AI; zbieranie danych użytkowników jest zatem związane z funkcjonalnością samej aplikacji. Może to wyjaśniać, dlaczego niektóre z badanych przez nas aplikacji nie zawierają informacji w powyższej tabeli.
Poruszanie się po warunkach korzystania z narzędzi AI
Teraz przyjrzyjmy się dokumentacja prawna za różnymi narzędziami AI, aby się dowiedzieć jak łatwo lub trudno je przeczytać. Opiera się na teście czytania Flescha-Kincaida dostosowanym do poziomu klasy.
Ten system przyrównuje teksty do poziomu czytania w szkołach amerykańskich (od piątej do dwunastej klasy), następnie do College, College Graduate i Professional. Teksty na poziomie szóstej klasy są definiowane jako „angielski konwersacyjny dla konsumentów”, podczas gdy teksty ocenione jako profesjonalne są opisywane jako „niezwykle trudne do czytania”.
Im niższy wynik czytelności, tym trudniej przeczytać tekst.
Co znamienne, „wystarczająca ilość snu” — kluczowa dla zdrowia fizycznego i psychicznego oraz funkcji poznawczych — znalazła się na trzecim miejscu, po „długich godzinach pracy” i „uporządkowaniu zeznań podatkowych”.
Jedna trzecia ankietowanych uważa, że nie jest możliwe wykonywanie wszystkich czynności administracyjnych w godzinach pracyi powiedział, że oni potrzebowałem czterech dodatkowych godzin dziennie, żeby to wszystko ogarnąć.
Daje to wyobrażenie o tym, jak bardzo karzące może być prowadzenie MŚP i że czas potrzebny na przeczytanie regulaminu za narzędziami, na których polegają, stoi niełatwo znaleźć.
W tym kontekście 40-minutowy czas potrzebny na przeczytanie Regulaminu narzędzi do transkrypcji, takich jak Otter, Trint i Descript, ma ogromne znaczenie.
oraz zakładając, że jest to możliwe do zrozumienia najtrudniejsze do odczytania warunki i postanowienia. Dlatego zwróciliśmy się o pomoc do eksperta prawnego.
Poprosiliśmy eksperta prawnego ds. sztucznej inteligencji i technologii o ich przeczytanie i wyjaśnienie najważniejszych kwestii, które musisz znać
Josilda Ndreaj, prawnik i licencjonowany adwokat, zajmował się skomplikowanymi sprawami prawnymi w imieniu klientów z listy Fortune 500 i udzielał porad prawnych różnym korporacjom.
Ostatnio, jako niezależna konsultantka, skupiony na prawie własności intelektualnej na styku technologii blockchain i sztucznej inteligencji.
Josilda Ndreaj (LLM) jest prawnikiem i licencjonowanym adwokatem specjalizującym się w prawie własności intelektualnej (IP).
Jej kariera jako konsultanta prawnego rozpoczęła się w prestiżowej międzynarodowej kancelarii prawnej, obsługującej klientów z listy Fortune 500. Tutaj Josilda zajmowała się skomplikowanymi sprawami prawnymi i udzielała porad różnym korporacjom.
Zainteresowanie innowacyjnością, kreatywnością i nowymi technologiami skłoniło Josildę do zajęcia się niezależnym doradztwem i skupienia się na prawie własności intelektualnej, obejmującym obszary powiązane z technologią blockchain i sztuczną inteligencją.
Josilda posiada dwa tytuły magistra prawa: jeden ze specjalizacją w prawie cywilnym i handlowym, uzyskany na Uniwersytecie w Tiranie, a drugi ze specjalizacją w prawie własności intelektualnej, uzyskany na Uniwersytecie Ekonomii i Prawa w Zhongnan.
W związku z tym Josilda była w wyjątkowej pozycji, umożliwiającej przeglądanie wybranych dokumentów prawnych dotyczących tych narzędzi AI, wyciągając najważniejsze punkty dla dobra tych z nas, którzy nie posiadają dwóch tytułów magistra prawa.
Poniżej przedstawiono jej streszczenia:
Plagiat i naruszenie praw autorskich
Gemini (dawniej Bard) nie ma obowiązku deklarowania źródeł szkolenia, więc nie możemy sprawdzić, czy jest ono szkolone na materiałach chronionych prawem autorskim. Gemini nie jest wyłączone z odpowiedzialności za takie naruszenie; jeśli właściciel praw autorskich wniesie oskarżenie, Gemini ponosi pewną odpowiedzialność. Ważne jest jednak, aby pamiętać, że Gemini jest szkolone na podstawie tego, co użytkownik mu poda. W tym celu Gemini wymaga licencji od użytkownikaJeśli użytkownik zgodzi się udzielić licencji firmie Gemini, ale tak naprawdę nie jest właścicielem praw autorskich, odpowiedzialność przechodzi na użytkownika.
Użytkownicy zachowują prawo własności do swoich danych wejściowych i monitów, ale własność wyjścia jest bardziej złożona. Gemini nie wyjaśnia tego jasno w swoich Warunkach. Wiele ustawodawstw nie uznaje praw własności intelektualnej maszyn. Jest jednak wątpliwe, aby twierdzić, że wyjście jest „wygenerowane przez człowieka”, nawet jeśli użytkownik jest właścicielem wejścia.
Właściciele firm nigdy nie powinni publikować wyników Gemini bez odsyłaczy, sprawdzania aktualizacji i sprawdzania dokładności u ekspertów. W przeciwnym razie ryzykują publikacją wprowadzających w błąd informacji, co może mieć konsekwencje reputacyjne lub prawne.
Bezpieczeństwo i poufność
Google (właściciel Gemini) nie podaje w swojej Polityce prywatności żadnych informacji na temat sposobu postępowania z danymi poufnymi.
Stosowanie
Google nie podaje w swoich Warunkach korzystania z usług nic na temat tego, czy treści generowane przez Gemini mogą być wykorzystywane w celach komercyjnych. Wyjaśnia ograniczenia dotyczące takich rzeczy jak prawa własności intelektualnej ale nic konkretnie dotyczącego treści generowanych przez sztuczną inteligencję.
Plagiat i naruszenie praw autorskich
Obecnie żadne przepisy nie wymagają, aby ChatGPT publicznie deklarowało, na czym trenuje swój model. Ponieważ nie ujawnia swoich źródeł, nie możemy wiedzieć, czy ChatGPT dostarcza lub przetwarza treści chronione prawami autorskimi. Jeśli ktoś zidentyfikuje chronione prawem autorskim treści z ChatGPT, mogą złożyć roszczenie aby usunąć tę treść.
Użytkownicy powinni zweryfikować wszystkie informacje z ChatGPT. To dlatego, że ChatGPT nie ponosi odpowiedzialności za dostarczanie dokładnych informacji, aktualna treść. Zgodnie z sekcją Disclaimer of Warranty, użytkownik bierze na siebie wszelkie ryzyko związane z dokładnością, jakość, niezawodność, bezpieczeństwo i kompletność. Dlatego zawsze weryfikuj fakty z ChatGPT; sprawdzaj je, sprawdzaj aktualizacje i sprawdzaj dokładność u ekspertów. Właściciele firm mogą ponieść konsekwencje prawne lub reputacyjne, jeśli nie zweryfikują dokładności treści ChatGPT przed publikacją.
Użytkownicy ChatGPT są właścicielami swojej zawartości wejściowej i wyjściowej; użytkownicy muszą zatem zadbać o to, aby publikowane treści nie naruszały żadnych praw. Użytkownicy nie mogą twierdzić, że treść została wygenerowana przez człowieka, ale nie musisz też mówić, że jest generowana przez AI. O ile użytkownicy przestrzegają przepisów regionalnych i Warunków korzystania, treści ChatGPT mogą być wykorzystywane w celach komercyjnych, w mediach społecznościowych, do płatnych reklam i innych kanałów. Zaleca się sprawdzenie faktów, podanie odniesień i przestrzeganie przepisów przed opublikowaniem treści z ChatGPT.
Plagiat i naruszenie praw autorskich
Ani Polityka prywatności, ani Warunki nie określają, czy narzędzie AI DeepSeek zostało przeszkolone na materiałach chronionych prawem autorskim. Co więcej, nie udzielają również żadnych gwarancji, że wyniki nie naruszą czyichkolwiek praw autorskich. Warunki korzystania z DeepSeek stanowią, że użytkownicy zachowują prawa do swoich danych wejściowych (podpowiedzi), ale nie oznacza to, że są one chronione prawami autorskimi, dlatego użytkownicy powinni podjąć odpowiednie kroki, aby mieć pewność, że podpowiedzi, których używają, nie stanowią czyjejś własności intelektualnej.
Warunki korzystania z DeepSeek mówią, że wyniki są generowane przez sztuczną inteligencję, a zatem mogą zawierać błędy i/lub pominięcia. odnosi się konkretnie do kwestii medycznych, prawnych i finansowych o które użytkownicy mogą pytać DeepSeek i w jaki sposób wyniki DeepSeek nie stanowią porady. Ale szerzej rzecz biorąc, mówi to samo o „kwestiach zawodowych”, co może dotyczyć niemal wszystkiego — od marketingu i badań po technologię, edukację i wiele więcej — a wyniki nie...reprezentować opinie każdy polu zawodowymUżytkownicy powinni zatem niezależnie weryfikować dokładność wszystkich wyników DeepSeek.
Bezpieczeństwo i poufność
Polityka prywatności DeepSeek wyjaśnia, że dane wejściowe użytkownika są przetwarzane w celu generowania wyników, ale także w celu: ulepszyć usługę DeepSeek. To zawiera „szkolenie i udoskonalanie [ich] technologii”. Użytkownicy powinni zatem zachować ostrożność przy wprowadzaniu poufnych informacji, mimo że DeepSeek ma „komercyjnie uzasadniony' środki wdrożone w celu ochrony danych i informacji używanych jako dane wejściowe, nie zapewniają żadnych absolutnych gwarancji. Warunki DeepSeek stanowią, że nie publikują danych wejściowych ani wyjściowych na forach publicznych, ale niektóre mogą być udostępniane osobom trzecim.
Stosowanie
Wszelkie treści generowane przez użytkowników za pośrednictwem DeepSeek mogą być wykorzystywane w celach komercyjnych, ale ze względu na szare obszary wokół plagiatu i dokładności użytkownicy powinni podjąć kroki w celu weryfikacji treści przed wykorzystaniem jej w ten sposób. Warunki korzystania z usługi DeepSeek nie odnoszą się do żadnych ograniczeń dotyczących tego, gdzie na świecie użytkownicy mogą publikować te treści, ale wyraźnie stanowią, że użytkownicy muszą oświadczyć, że jest ona generowana przez sztuczną inteligencję, „aby uświadomić opinii publicznej syntetyczny charakter treści”.
Plagiat i naruszenie praw autorskich
Canva nie jest prawnie zobowiązana do ujawniania źródeł danych szkoleniowych. Dlatego nie wiemy, czy materiały chronione prawem autorskim są wykorzystywane. Użytkownik jest właścicielem całej zawartości wejściowej i wyjściowej (nie Canva), ale Canva może używać tej treści w celu ulepszania swoich usług.
Podobnie jak ChatGPT, DALL-E nie deklaruje źródeł dla swojego treningu modelu. Jeśli jednak znajdziesz treści chronione prawem autorskim, można złożyć wniosek o usunięcie. Trudno sprawdzić, czy DALL-E narusza prawa autorskie, ponieważ żadne przepisy nie wymagają od DALL-E ujawniania źródeł danych. Dane wejściowe użytkownika, zgodnie z Warunkami, można użyć do trenowania modelu DALL-E — nawet jeśli jest to treść chroniona prawem autorskim. Użytkownik może z tego zrezygnować.
Polityka prywatności i Warunki korzystania z serwisu DALL-E nigdy nie odnoszą się wprost do odpowiedzialności w przypadku naruszenia bezpieczeństwa. DALL-E ma jednak wdrożone środki bezpieczeństwa. Kto ponosi odpowiedzialność w przypadku włamania, zależy od przepisów regionalnych.
Możesz używać DALL-E w celach komercyjnych, o ile przestrzegasz wszystkich przepisów i Warunków DALL-E. Przepisy mogą ulec zmianie, ale w chwili pisania tego tekstu użytkownicy mogą publikować treści DALL-E w mediach społecznościowych, w reklamach i innych kanałach. Użytkownicy powinni zawsze podawać właściwe odniesienia i sprawdzać dokładność faktów, aby uniknąć naruszenia jakichkolwiek przepisów.
Plagiat i naruszenie praw autorskich
Bing nie ma obowiązku udostępniania źródeł danych szkoleniowych, co bardzo utrudnia ustalenie, czy Bing AI nieumyślnie korzysta z treści chronionych prawem autorskim. Chociaż trudno to zidentyfikować, użytkownicy mogą zgłaszać roszczenia dotyczące treści chronionych prawem autorskim. Umowa o usługach Microsoft mówi, że Bing AI pobiera dane wejściowe i wyjściowe od użytkowników, aby ulepszyć swój model, ale nie ma żadnych formalnych działań zapobiegających kradzieży własności intelektualnej.
Narzędzia AI firmy Microsoft (w tym Bing AI) wykorzystywać dane osobowe i poufne użytkowników do trenowania swoich modeliUmowa o świadczenie usług nie obejmuje treści generowanych przez sztuczną inteligencję; zamiast tego firma stara się przenieść całą odpowiedzialność za treści generowane przez sztuczną inteligencję na użytkownika. Firma Microsoft nie ponosi również żadnej odpowiedzialności za praktyki prywatności i bezpieczeństwa swoich klientów. Krótko mówiąc, jeśli Twoje dane zostaną naruszone podczas korzystania z Bing AI, to jest to Twój problem, a nie Microsoftu.
Stosowanie
Firma Microsoft nie rości sobie praw własności do treści użytkownika, ale nie reguluje konkretnie treści generowanych przez AI, których własność jest niepewna. Umowa o świadczenie usług pozwala ludziom na korzystanie z treści w celach komercyjnych, z pewnymi istotnymi zastrzeżeniami: musisz zaakceptować, że treści generowane przez AI nie są kreatywne, więc nie mogą być uznane za własność intelektualną; nie możesz również naruszać praw własności intelektualnej innych osób. Krótko mówiąc, nie możesz korzystać z własności intelektualnej innych osób, ale wszystko, co tworzysz za pomocą Bing, prawdopodobnie nie jest Twoją własnością intelektualną.
Plagiat i naruszenie praw autorskich
Quillbot ma brak obowiązku ujawniania źródeł, z których korzysta w celu trenowania modeli. Jednak firma ciekawie próbuje regulować jedną wyjątkową sytuację: co jeśli źródłem treningu modelu jest wyjście AI? Quillbot zasadniczo próbuje zminimalizować potencjalne wyjście chronione prawem autorskim, ale stwierdza, że nadal istnieje szansa, że wyjście jest chronione prawem autorskim, jeśli użytkownicy wprowadzają treści chronione prawem autorskim. Aby jeszcze bardziej skomplikować sprawę, Quillbot próbuje objąć wszystkie obszary, mówiąc, że użytkownicy udzielają Quillbot nieograniczonej licencji z możliwością sublicencjonowania, jednocześnie twierdząc, że użytkownicy są właścicielami wszystkich swoich wyjść.
Quillbot ma środki ochrony prywatności użytkowników, ale nadal może skończyć się przetwarzaniem danych osobowych. Istnieją specjalne zabezpieczenia prywatności dzieci. Odpowiedzialność za utratę danych w wyniku włamania jest rozpatrywana indywidualnie. Quillbot stwierdza, że użytkownik powinien podjąć kroki, aby zapobiec włamaniu się do jego danych osobowych, a Quillbot ma wdrożone elementy ochrony danych.
Stosowanie
Użytkownicy Quillbota mogą publikować wygenerowane treści w celach komercyjnych, ale może być konieczne przestrzeganie pewnych zasad, takich jak niepublikowanie szkodliwych lub wprowadzających w błąd treści. Regulamin nie mów, że musisz zadeklarować, że jego zawartość jest generowana przez AI. Krótko mówiąc, użytkownik może publikować treści generowane przez Quillbota pod warunkiem, że nie narusza to żadnych praw ani przepisów.
Plagiat i naruszenie praw autorskich
Pixlr nie ujawnia źródeł szkolenia modeli AI, ponieważ nie ma prawnego obowiązku, aby to robić. W jego Warunkach jest napisane, że użytkownik jest właścicielem treści, ale użytkownicy również udzielić Pixlr licencji na korzystanie z treści. Jest to próba zminimalizowania wykorzystania treści chronionych prawem autorskim.
Użytkownicy mogą publikować treści generowane przez sztuczną inteligencję za pomocą Pixlr w celach komercyjnych (choć obowiązują pewne warunki). Warunki nie wymagaj, abyś stwierdził, że cokolwiek jest generowane przez AI. Użytkownicy nadal ponoszą odpowiedzialność za naruszenie praw lub przepisów.
Midjourney trenuje swój model na podstawie danych wprowadzanych przez użytkownika, nawet jeśli obejmuje on: dane osobowe lub poufne. Midjourney twierdzi, że użytkownik powinien uważać na poufne dane, więc to nie jest jego problem. Firma próbuje filtrować pewne informacje do trenowania modelu, ale nie jest to wymagane. Midjourney nie ponosi odpowiedzialności za problemy bezpieczeństwa, które mogą wystąpić w wyniku działań użytkownika.
Stosowanie
Użytkownicy Midjourney mogą publikować wygenerowane treści w celach komercyjnych. Niektóre warunki, takie jak wymóg subskrypcji wersji Pro jeśli firma zarabia ponad 1 mln dolarów rocznie, zastosuj. W chwili pisania tego tekstu użytkownicy nie muszą twierdzić, że cokolwiek jest generowane przez AI z Midjourney, mimo że trwają prace nad ustawodawstwem mającym to zmienić. Użytkownicy mogą generalnie korzystać z dowolnej zawartości Modjourney, jeśli nie narusza ona żadnych praw ani przepisów.
Clipchamp i Microsoft unikają regulowania treści generowanych przez sztuczną inteligencję, nigdy nie twierdząc, że Microsoft jest właścicielem treści. Technicznie rzecz biorąc, Microsoft twierdzi, że użytkownik jest jego właścicielem, ale bez praw własności intelektualnej. Użytkownik może publikować treści Clipchamp w celach komercyjnych z dwoma zastrzeżeniami: nie możesz naruszać praw własności intelektualnej ani twierdzić, że masz prawa własności intelektualnej do wygenerowanej treści.
Plagiat i naruszenie praw autorskich
Looka Regulamin stwierdzają, że firma nie ma obowiązku udostępniania źródeł danych szkoleniowych, więc tego nie robią. Użytkownicy ponoszą wszelkie ryzyko podczas korzystania z treści generowanych przez Looka.
Dokładność i niezawodność
Looka nie ponosi żadnej odpowiedzialności za dokładność i niezawodność wyników uzyskiwanych za pomocą narzędzi sztucznej inteligencji. Użytkownicy powinni zweryfikować wszystkie fakty i sprawdź niezawodność.
Użytkownicy Looka mogą wykorzystywać treści generowane przez sztuczną inteligencję w celach komercyjnych, ale może być konieczne przestrzeganie pewnych warunków lub zapłacić opłatę. Użytkownicy nie muszą oznaczać wygenerowanej przez siebie treści jako wygenerowanej przez AI. Użytkownicy powinni unikać publikowania wygenerowanej treści, która narusza prawa lub przepisy.
Plagiat i naruszenie praw autorskich
Nie można stwierdzić, czy Speechify trenuje swój model na materiałach chronionych prawem autorskim. Po prostu nie wiemy. Warunki Speechify zalecają nieużywanie materiałów chronionych prawem autorskim do danych wejściowych, co sugeruje, że niektóre dane wyjściowe mogą zawierać dane chronione prawem autorskim. Speechify twierdzi, że nie ponosi za to żadnej odpowiedzialności.
Dokładność i niezawodność
Speechify, zgodnie z jego Regulamin, nie bierze odpowiedzialności za dokładność swoich wyników. Użytkownicy powinni zawsze sprawdzać aktualność, niezawodność i dokładność Speechify.
Użytkownicy Kapwing biorą na siebie wszelkie ryzyko, decydując się na wprowadzenie poufnych informacji do narzędzia AI. Nie oferuje również żadnej gwarancji ani odpowiedzialności za bezpieczeństwo usługi.
Stosowanie
Możesz publikować treści Kapwing komercyjnie, ale Kapwing radzi użytkownikom zachować ostrożność. Ich warunki nie mówią, czy użytkownicy muszą deklarować, że dane wyjściowe z Kapwing są generowane przez sztuczną inteligencję.
Otter.ai wyklucza się z odpowiedzialności za dokładność i niezawodność, więc użytkownicy powinni zawsze weryfikować treść. Korzystanie z informacji wprowadzających w błąd lub nieprawidłowych może spowodować problemy prawne lub reputacyjne dla użytkownika.
PhotoRoom może pobierać dane wejściowe i wyjściowe użytkownika w celu trenowania modelu, ale istnieją ograniczone informacje na temat tego, czy usługa to robi, czy nie. Warunki PhotoRoom przypominają użytkownikom, aby unikali wprowadzania treści chronionych prawem autorskim. Użytkownicy ponoszą wszelką odpowiedzialność dla tego.
Zawartość PhotoRoom można używać w celach komercyjnych, ale mogą obowiązywać pewne warunki, takie jak zapisanie się na subskrypcję. Warunki stanowią, że nie musisz oznaczać treści jako wygenerowanej przez AI. Użytkownicy mogą zobaczyć inne reperkusje, jeśli naruszą prawa lub przepisy.
Odpowiedzialność
Niniejsze informacje mają charakter wyłącznie ogólnoinformacyjny i nie należy ich traktować jako porady prawnej. Platformy e-commerce nie ponoszą odpowiedzialności za błędy lub pominięcia. Skonsultuj się z odpowiednim prawnikiem, aby uzyskać porady i wskazówki dostosowane do Twoich konkretnych potrzeb i okoliczności.
Podsumowanie
Wszechobecność sztucznej inteligencji sprawia, że coraz częściej korzystamy z narzędzi i aplikacji opartych na tej technologii — jednak wielu z nas nie może sobie pozwolić na poświęcenie czasu na zapoznanie się z ich regulaminem.
Biorąc pod uwagę, jak wiele regulaminów dotyczących sztucznej inteligencji oceniliśmy jako mało czytelne, wydaje się, że Nieprzenikniona terminologia prawnicza tych dokumentów zniechęca użytkowników nawet do prób ich zrozumienia.
Współpracowaliśmy z prawnikiem, który przeanalizował dla nas dokumenty, ale nie jest jasne, czy jest to konieczne.
Mamy nadzieję, że te badania — w tym oceny czytelności i wiedza Josildy Ndreaj na temat warunków, o których należy pamiętać — pomogą Ci w wyborze aplikacji i narzędzi AI, z których chcesz korzystać.
Metodologia i źródła
Jak przeprowadziliśmy badanie
Zaczynając od listy początkowej około 90 narzędzi i aplikacji AI, najpierw zebraliśmy dokumentację prawną każdego narzędzia, od warunków i zasad po zasady ochrony prywatności. Następnie zarejestrowaliśmy długość słów w tych dokumentach i obliczyliśmy ich wynik czytelności, korzystając z systemu oceniania Flesch-Kincaid. Następnie zwróciliśmy się o pomoc do eksperta prawnego, Josildy Ndreaj (LLM), która przejrzała wybór tych dokumentów prawnych i zidentyfikowała kluczowe punkty, o których użytkownicy powinni wiedzieć.
W przypadku około 30 narzędzi AI, które mają dostępne wersje aplikacji mobilnych, przeszukaliśmy każde z nich w sklepie Apple App Store i zarejestrowaliśmy ich etykiety prywatności wyświetlane na ich listach. Są one podzielone na 14 kategorii danych, które można zbierać od użytkowników, i w jakim celu. Aby obliczyć, które aplikacje AI zebrały najwięcej danych, zmierzyliśmy, w ilu z 14 możliwych kategorii te aplikacje śledziły swoich użytkowników.
Ważne jest, aby pamiętać, że te 14 kategorii jest dalej podzielone na indywidualne punkty danych. Na przykład „Informacje kontaktowe” obejmują pięć punktów danych, którymi są: „Imię”, „Adres e-mail”, „Numer telefonu”, „Adres fizyczny” i „Inne informacje kontaktowe użytkownika”. Aby dowiedzieć się, które aplikacje zbierają najwięcej indywidualnych punktów danych, spójrz na ostatnią kolumnę w każdej z tabel.
Niektóre aplikacje będą zbierać więcej indywidualnych punktów danych niż te, które pojawiają się wyżej w rankingu. Wynika to z faktu, że nasza metodologia rankingowa bierze pod uwagę, które aplikacje zbierają dane w większości kategorii, co sugeruje szerszy i tym samym bardziej „kompletny” obraz danych użytkownika, a nie głębokość informacji, które zbierają w każdej kategorii.
Źródła
Apple App Store stron dla każdej aplikacji, aktualne na luty 2025 r.
Różna dokumentacja każdej aplikacji AI (w tym warunki, regulaminy i polityki prywatności) udostępniona i sprawdzona przez Josildę Ndreaj w lutym 2024 r., z wyjątkiem DeepSeek, do której uzyskano dostęp i którą sprawdzono w styczniu 2025 r.
Kalkulator czytelności Flescha-Kincaida.
Narzędzie do liczenia słów.
Różne zestawienia służące do sporządzenia początkowej listy aplikacji i narzędzi AI, w tym:
Jeśli jesteś właścicielem któregokolwiek z narzędzi AI uwzględnionych w tym badaniu i chciałbyś zakwestionować informacje na tej stronie, jesteśmy gotowi je zaktualizować pod warunkiem, że przejrzymy dostarczone przez Ciebie dowody. Kontaktując się z nami w tej sprawie, prosimy o:
dokumenty biznesowe potwierdzające Twoją legalność (na przykład świadectwo założenia spółki lub dokumenty rejestracyjne)
informacje na tej stronie uważasz za nieaktualne (proszę podać szczegóły)
jak należy je aktualizować i dlaczego, wraz z linkami do dokumentacji, która to potwierdza (na przykład zmiany w Warunkach korzystania z usługi)
Skontaktuj się z nami na [email chroniony] w temacie wiadomości wpisz: „Prośba o korektę: badanie narzędzi AI” i podaj nazwę narzędzia AI, w sprawie którego się z nami kontaktujesz.
Bogdan Rancea jest współzałożycielem Ecommerce-Platforms.com i głównym kuratorem ecomm.design, witryny prezentującej najlepsze witryny e-commerce. Dzięki ponad 12-letniemu doświadczeniu w branży handlu cyfrowego ma ogromną wiedzę i wyczucie doskonałych doświadczeń w handlu internetowym. Jako odkrywca technologii e-commerce Bogdan testuje i recenzuje różne platformy i narzędzia projektowe, takie jak Shopify, Figma i Canva, a także udziela praktycznych porad właścicielom sklepów i projektantom.
Ta witryna korzysta z plików cookie wyłącznie w celu zapewnienia niezbędnej funkcjonalności i analiz opisanych w naszym Polityka Cookie.