Za drobnym drukiem: zrozumienie aplikacji AI i prywatności

Jeśli subskrybujesz usługę za pośrednictwem łącza na tej stronie, firma Reeves and Sons Limited może otrzymać prowizję. Zobacz nasze oświadczenie etyczne.

Sztuczna inteligencja szybko stała się częścią współczesnego ducha epoki — mimo to kwestie etyczne związane z tym tematem pozostają nierozstrzygnięte. Ilu użytkowników jest w pełni świadomych tego, na co się pisze?

W tym artykule, szczegółowo omawiając warunki, regulaminy i politykę prywatności najpopularniejszych narzędzi i aplikacji opartych na sztucznej inteligencji, Ecommerce Platforms ujawnia wszystko, co musisz wiedzieć, korzystając z tych narzędzi w codziennej działalności biznesowej.

Przeanalizowaliśmy dane i informacje osobiste gromadzone przez te narzędzia (oraz cel ich gromadzenia), aby pomóc Ci ustalić, które Narzędzia AIoprogramowanie i platformy są najbardziej odpowiednie do zamierzonego celu. Skonsultowaliśmy się również z ekspertem prawnym, aby rozjaśnić żargon za warunkami i postanowieniami tych narzędzi.

Przeanalizowaliśmy etykiety prywatności w sklepie Apple App Store dla około 30 dostępnych wersji aplikacji mobilnych popularnych narzędzi opartych na sztucznej inteligencji, aby dowiedzieć się, które z nich zbierają Twoje dane i dlaczego. 

Zebrane od użytkowników dane (i cel tych danych) podzielono na 14 kategorii, co pozwala ustalić, które aplikacje zbierają i śledzą najwięcej danych użytkowników.

Więcej szczegółów znajdziesz w części poświęconej metodologii na końcu tej strony.

Jakie dane gromadzą te aplikacje AI?

Narzędzia sztucznej inteligencji oceniane w tym badaniu zbierają dane różnego typu. Niektóre z nich skupiają się na danych osobowych użytkowników — od nazw ekranowych i danych bankowych, po stan zdrowia i kondycję fizyczną, a nawet poufne informacje, takie jak rasa/pochodzenie etniczne, orientacja seksualna, tożsamość płciowa i poglądy polityczne. 

Inne odnoszą się do treści tworzonych przez użytkowników (takich jak e-maile i wiadomości, zdjęcia, filmy i nagrania dźwiękowe) lub do tego, jak użytkownicy wchodzą w interakcję z samym produktem, jak ich historia wyszukiwania w aplikacji lub jakie reklamy widzieli. Jeszcze bardziej bezosobowe są informacje diagnostyczne zbierane w celu pokazania danych o awariach lub zużyciu energii.

Dlaczego aplikacje AI zbierają dane?

Tam są różne powody, dla których aplikacje zbierają dane, niektóre z nich mogą być postrzegane jako bardziej uzasadnione niż inne — na przykład dane biometryczne lub dane kontaktowe mogą być wykorzystane do uwierzytelnienia tożsamości użytkownika.

Podobnie, dostęp do niektórych danych może być konieczny, aby aplikacja działała prawidłowo, w tym w celu zapobiegania oszustwom lub poprawy skalowalności i wydajności.

Dokładniej rzecz biorąc, aplikacje do przesyłania wiadomości potrzebują dostępu do kontaktów, aparatów w telefonie i mikrofonów, aby móc wykonywać połączenia, natomiast geolokalizacja jest niezbędna w przypadku aplikacji taksówkarskich i dostawczych.

Do mniej istotnych powodów gromadzenia danych zalicza się: reklama lub marketing prowadzony przez twórcę aplikacji (na przykład w celu wysyłania komunikatów marketingowych do użytkowników); umożliwianie reklam stron trzecich (na przykład poprzez śledzenie danych z innych aplikacji w celu kierowania ukierunkowanych reklam do użytkownika); oraz analizowanie zachowań użytkowników, m.in. w celu oceny skuteczności istniejących funkcji lub planowania nowych.

Hej użytkowniku mobilny 👋 Poniższe tabele mogą być przewijane poziomo aby zobaczyć wszystkie dane, ale ta strona zdecydowanie wygląda lepiej Desktop.

Aplikacje AI, które zbierają Twoje dane, aby udostępniać je zewnętrznym reklamodawcom

Nagłówki kolumn z przyciskami można sortować.
Aplikacja AI % danych udostępnionych innym osobom Historia przeglądania Informacje kontaktowe Identyfikatory Lokalizacja Inne dane Zakupy Historia wyszukiwania Dane użytkowania Liczba zebranych punktów danych
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
wombo 14% 1 1 2
ChatGPT 7% 1 1
Dżin AI 7% 1 1
soczewka 7% 1 1
Perorować 7% 1 1
Gwiaździste AI 7% 1 1

Ze wszystkich aplikacji AI uwzględnionych w naszym badaniu, Canva, narzędzie do projektowania graficznego, zbiera najwięcej danych od swoich użytkowników na potrzeby reklam stron trzecich — około 36%. Natomiast pięć aplikacji, które gromadzą w tym celu najmniej danych, zbiera nieco ponad 7%.

Dane, które aplikacja Canva zbiera od Ciebie i udostępnia stronom trzecim, obejmują historię wyszukiwania, lokalizację, adres e-mail i inne informacje przedstawione w tabeli powyżej. 

Tuż za Canvą znajduje się aplikacja do nauki języków w formie gier Duolingo (~36%), Google Assistant (~21%) i Bing Microsoftu (~14%) — wszystkie udostępniać Twoje dane również osobom trzecim

Spośród pięciu aplikacji, które zbierają najmniej danych, tylko gwiaździsty (generator obrazów) ogranicza się wyłącznie do udostępniania danych o użytkowaniu.

Aplikacje AI, które zbierają Twoje dane dla własnej korzyści

Nagłówki kolumn z przyciskami można sortować.
aplikacji % danych zebranych na korzyść samej aplikacji Historia przeglądania Informacje kontaktowe Identyfikatory Lokalizacja Zakupy Historia wyszukiwania Dane użytkowania Liczba zebranych punktów danych
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
fotopokój 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
Gwiaździste AI 14% 2 1 3
Bing 14% 1 1 2
soczewka 14% 1 1 2
Wydra 7% 2 2
Jeść 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Perorować 7% 1 1
wombo 7% 1 1

Canva zajmuje również czołowe miejsce w rankingu aplikacji AI zbierających dane użytkowników na potrzeby własnej reklamy lub marketinguAby to zrobić, Canva zbiera około 43% danych ich użytkowników.

Na trzecim miejscu Amazon Alexa zbiera 36% Twoich danych w tym samym celu. Obejmuje to Twój adres e-mail, adres fizyczny, numer telefonu, historię wyszukiwania i historię zakupów, a także pięć innych punktów danych. Google Assistant Z tego powodu gromadzi i udostępnia taki sam odsetek danych, choć w ośmiu indywidualnych punktach danych, w porównaniu z dziesięcioma, które gromadzi Amazon Alexa.

Kurs Generator głosu zamieniający tekst na mowę, Speechify, należy do aplikacji zbierających najmniej danych. Zgodnie z etykietami prywatności w sklepie Apple App Store firma Speechify zbiera tylko jeden punkt danych dla własnej korzyści; identyfikator Twojego urządzenia.

Aplikacje AI, które zbierają Twoje dane w dowolnym celu

Nagłówki kolumn z przyciskami można sortować.
aplikacji % zebranych danych Historia przeglądania Informacje kontaktowe Kontakt Diagnostyka Informacje finansowe zdrowie i fitness Identyfikatory Lokalizacja Inne dane Zakupy Historia wyszukiwania Wrażliwe informacje Dane użytkowania treści użytkownika Liczba zebranych punktów danych
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Wydra 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA Mów 43% 2 6 6 3 3 3 23
fotopokój 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Sztuczna inteligencja 36% 6 6 2 1 6 21
1 / 2

Wszystkie modele sztucznej inteligencji wymagają pewnej formy szkolenia za pomocą uczenia maszynowego, co oznacza, że potrzebują danych.

Jeśli chcemy, aby narzędzia AI się rozwijały i stawały się bardziej użyteczne, nasza prywatność może być postrzegana jako konieczny kompromis w zamian za udostępnienie tych danych.

Jednak pytanie gdzie granica między użytecznością a eksploatacją należy narysować i dlaczego, jest to kwestia trudna.

Biorąc pod uwagę obecną złą sławę DeepSeek, warto się nim zająćW ofercie Apple App Store podano, że DeepSeek nie gromadzi danych użytkowników dla własnych korzyści (na przykład na potrzeby marketingu i reklam DeepSeek) ani w celu udostępniania ich osobom trzecim.

Ale warto podkreślić, że ich Polityka prywatności stanowi inaczej (więcej o tym później). 

Kurs Sama aplikacja DeepSeek zbiera 50% danych swoich użytkowników, który obsługuje funkcje analityczne i aplikacji DeepSeek. Dla porównania, Aplikacja ChatGPT zbiera 36%.

Niektóre media zgłaszają obawy dotyczące zagrożeń bezpieczeństwa związanych z chińskim pochodzeniem DeepSeek (zarówno pod względem gromadzenia danych, jak i możliwego rozprzestrzeniania dezinformacji) oraz osłabieniem amerykańskich rywali. Oba te problemy prawdopodobnie nie zostaną złagodzone przez Warunki korzystania z serwisu i polityka prywatności DeepSeek, co zajęłoby około 35 minut na przeczytaniei są oceniane jako "bardzo trudne" w skali czytelności Flescha-Kincaida.

Niezależnie od tego, w jaki sposób wykorzystywane są Twoje dane, Amazon Alexa zbiera więcej danych swoich użytkowników niż jakakolwiek inna aplikacja AI włączono do tego badania. Ogólnie rzecz biorąc, zbiera 93% Twoich danych (lub 116 indywidualnych metryk, głównie danych kontaktowych, treści użytkowników i danych dotyczących użytkowania).

Google Assistant następnie następuje zbieranie 86%, śledzony przez Duolingo, który zbiera 79%.

Na drugim końcu skali Generator obrazów AI, Stable Diffusion, nie zbiera żadnych danychTak wynika z etykiet prywatności zamieszczonych na liście aplikacji w sklepie Apple App Store.

Chociaż to prawda, że ​​wszystko generatywna sztuczna inteligencja modele wymagają ogromnych ilości danych do trenowania, to trenowanie odbywa się przed opracowaniem konkretnych aplikacji. W większości przypadków twórcy aplikacji nie są właścicielami używanych przez siebie modeli AI; zbieranie danych użytkowników jest zatem związane z funkcjonalnością samej aplikacji. Może to wyjaśniać, dlaczego niektóre z badanych przez nas aplikacji nie zawierają informacji w powyższej tabeli.

Poruszanie się po warunkach korzystania z narzędzi AI

Teraz przyjrzyjmy się dokumentacja prawna za różnymi narzędziami AI, aby się dowiedzieć jak łatwo lub trudno je przeczytać. Opiera się na teście czytania Flescha-Kincaida dostosowanym do poziomu klasy.

Ten system przyrównuje teksty do poziomu czytania w szkołach amerykańskich (od piątej do dwunastej klasy), następnie do College, College Graduate i Professional. Teksty na poziomie szóstej klasy są definiowane jako „angielski konwersacyjny dla konsumentów”, podczas gdy teksty ocenione jako profesjonalne są opisywane jako „niezwykle trudne do czytania”.

Im niższy wynik czytelności, tym trudniej przeczytać tekst.

Nagłówki kolumn z przyciskami można sortować.
Clipchamp 3 godzin 16 minut 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 godzin 20 minut 35.4 🤯🤯🤯🤯🤯
veed.io 2 godzin 15 minut 37.9 🤯🤯🤯🤯🤯
Facetune 2 godzin 4 minut 34.4 🤯🤯🤯🤯🤯🤯
B.AI 1 godzin 47 minut 31.4 🤯🤯🤯🤯🤯🤯
Wydra 1 godzin 11 minut 32.4 🤯🤯🤯🤯🤯🤯
Jaspis 1 godzin 9 minut 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 godzin 6 minut 30.9 🤯🤯🤯🤯🤯🤯
Perorować 1 godzin 6 minut 35.0 🤯🤯🤯🤯🤯🤯
Pas startowy 1 godzin 2 minut 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

W 2023 roku brytyjska firma ubezpieczeniowa Superscript przeprowadzono ankietę wśród właścicieli 500 małych i średnich przedsiębiorstw (MŚP) aby dowiedzieć się, co pochłania im najwięcej czasu.

Co znamienne, „wystarczająca ilość snu” — kluczowa dla zdrowia fizycznego i psychicznego oraz funkcji poznawczych — znalazła się na trzecim miejscu, po „długich godzinach pracy” i „uporządkowaniu zeznań podatkowych”.

Jedna trzecia ankietowanych uważa, że ​​nie jest możliwe wykonywanie wszystkich czynności administracyjnych w godzinach pracyi powiedział, że oni potrzebowałem czterech dodatkowych godzin dziennie, żeby to wszystko ogarnąć.

Daje to wyobrażenie o tym, jak bardzo karzące może być prowadzenie MŚP i że czas potrzebny na przeczytanie regulaminu za narzędziami, na których polegają, stoi niełatwo znaleźć.

W tym kontekście 40-minutowy czas potrzebny na przeczytanie Regulaminu narzędzi do transkrypcji, takich jak Otter, Trint i Descript, ma ogromne znaczenie. 

oraz zakładając, że jest to możliwe do zrozumienia najtrudniejsze do odczytania warunki i postanowienia. Dlatego zwróciliśmy się o pomoc do eksperta prawnego.

Josilda Ndreaj, prawnik i licencjonowany adwokat, zajmował się skomplikowanymi sprawami prawnymi w imieniu klientów z listy Fortune 500 i udzielał porad prawnych różnym korporacjom.

Ostatnio, jako niezależna konsultantka, skupiony na prawie własności intelektualnej na styku technologii blockchain i sztucznej inteligencji.

Josilda Ndreaj (LLM) jest prawnikiem i licencjonowanym adwokatem specjalizującym się w prawie własności intelektualnej (IP).

Jej kariera jako konsultanta prawnego rozpoczęła się w prestiżowej międzynarodowej kancelarii prawnej, obsługującej klientów z listy Fortune 500. Tutaj Josilda zajmowała się skomplikowanymi sprawami prawnymi i udzielała porad różnym korporacjom.

Zainteresowanie innowacyjnością, kreatywnością i nowymi technologiami skłoniło Josildę do zajęcia się niezależnym doradztwem i skupienia się na prawie własności intelektualnej, obejmującym obszary powiązane z technologią blockchain i sztuczną inteligencją.

Josilda posiada dwa tytuły magistra prawa: jeden ze specjalizacją w prawie cywilnym i handlowym, uzyskany na Uniwersytecie w Tiranie, a drugi ze specjalizacją w prawie własności intelektualnej, uzyskany na Uniwersytecie Ekonomii i Prawa w Zhongnan.

W związku z tym Josilda była w wyjątkowej pozycji, umożliwiającej przeglądanie wybranych dokumentów prawnych dotyczących tych narzędzi AI, wyciągając najważniejsze punkty dla dobra tych z nas, którzy nie posiadają dwóch tytułów magistra prawa.

Poniżej przedstawiono jej streszczenia:

Gemini (dawniej Bard) nie ma obowiązku deklarowania źródeł szkolenia, więc nie możemy sprawdzić, czy jest ono szkolone na materiałach chronionych prawem autorskim. Gemini nie jest wyłączone z odpowiedzialności za takie naruszenie; jeśli właściciel praw autorskich wniesie oskarżenie, Gemini ponosi pewną odpowiedzialność. Ważne jest jednak, aby pamiętać, że Gemini jest szkolone na podstawie tego, co użytkownik mu poda. W tym celu Gemini wymaga licencji od użytkownikaJeśli użytkownik zgodzi się udzielić licencji firmie Gemini, ale tak naprawdę nie jest właścicielem praw autorskich, odpowiedzialność przechodzi na użytkownika.

Użytkownicy zachowują prawo własności do swoich danych wejściowych i monitów, ale własność wyjścia jest bardziej złożona. Gemini nie wyjaśnia tego jasno w swoich Warunkach. Wiele ustawodawstw nie uznaje praw własności intelektualnej maszyn. Jest jednak wątpliwe, aby twierdzić, że wyjście jest „wygenerowane przez człowieka”, nawet jeśli użytkownik jest właścicielem wejścia.

Dokładność i niezawodność

Zawsze zachowuj ostrożność, polegając na Gemini w kwestii dokładnych informacji. Warunki korzystania z usługi stanowią, że nie należy automatycznie zakładać dokładności przez użytkownika. Dlatego powinieneś sprawdzać fakty w całej treści generowanej przez Gemini. 

Właściciele firm nigdy nie powinni publikować wyników Gemini bez odsyłaczy, sprawdzania aktualizacji i sprawdzania dokładności u ekspertów. W przeciwnym razie ryzykują publikacją wprowadzających w błąd informacji, co może mieć konsekwencje reputacyjne lub prawne.

Bezpieczeństwo i poufność

Google (właściciel Gemini) nie podaje w swojej Polityce prywatności żadnych informacji na temat sposobu postępowania z danymi poufnymi.

Stosowanie

Google nie podaje w swoich Warunkach korzystania z usług nic na temat tego, czy treści generowane przez Gemini mogą być wykorzystywane w celach komercyjnych. Wyjaśnia ograniczenia dotyczące takich rzeczy jak prawa własności intelektualnej ale nic konkretnie dotyczącego treści generowanych przez sztuczną inteligencję.

Obecnie żadne przepisy nie wymagają, aby ChatGPT publicznie deklarowało, na czym trenuje swój model. Ponieważ nie ujawnia swoich źródeł, nie możemy wiedzieć, czy ChatGPT dostarcza lub przetwarza treści chronione prawami autorskimi. Jeśli ktoś zidentyfikuje chronione prawem autorskim treści z ChatGPT, mogą złożyć roszczenie aby usunąć tę treść.

Warunki ChatGPT stanowią, że dane wprowadzane przez użytkownika, nawet jeśli są chronione prawem autorskim, służy do ulepszania usługi i trenowania modelu; i użytkownik nie może z tego zrezygnować. Warunki ChatGPT mówią, że użytkownik jest właścicielem całej zawartości wejściowej i wyjściowej (jeśli zawartość wejściowa jest już legalnie używana), ale to nie gwarantuje, że użytkownik posiada prawa autorskie do tej treści wejściowej i wyjściowej. Ponadto, użytkownicy nie mogą przedstawiać niczego z ChatGPT jako „wygenerowanego przez człowieka”.

Dokładność i niezawodność

Użytkownicy powinni zweryfikować wszystkie informacje z ChatGPT. To dlatego, że ChatGPT nie ponosi odpowiedzialności za dostarczanie dokładnych informacji, aktualna treść. Zgodnie z sekcją Disclaimer of Warranty, użytkownik bierze na siebie wszelkie ryzyko związane z dokładnością, jakość, niezawodność, bezpieczeństwo i kompletność. Dlatego zawsze weryfikuj fakty z ChatGPT; sprawdzaj je, sprawdzaj aktualizacje i sprawdzaj dokładność u ekspertów. Właściciele firm mogą ponieść konsekwencje prawne lub reputacyjne, jeśli nie zweryfikują dokładności treści ChatGPT przed publikacją. 

Bezpieczeństwo i poufność

ChatGPT zbiera informacje z danych wejściowych — w tym dane osobowe — aby potencjalnie szkolić swoje modele (zgodnie z Polityką Prywatności). Użytkownik może zrezygnować. Sytuacja ulega zmianie, jeśli dane zostaną przesłane przez połączenia API (ChatGPT Enterprise, Team itp.); dzieje się tak, ponieważ ChatGPT nie korzysta z danych wejściowych od klientów biznesowych do trenowania modeli. ChatGPT ma środki bezpieczeństwa, ale nie określa wprost odpowiedzialności za naruszenie bezpieczeństwa. Wszystko zależy od przepisów regionalnych. 

Stosowanie

Użytkownicy ChatGPT są właścicielami swojej zawartości wejściowej i wyjściowej; użytkownicy muszą zatem zadbać o to, aby publikowane treści nie naruszały żadnych praw. Użytkownicy nie mogą twierdzić, że treść została wygenerowana przez człowieka, ale nie musisz też mówić, że jest generowana przez AI. O ile użytkownicy przestrzegają przepisów regionalnych i Warunków korzystania, treści ChatGPT mogą być wykorzystywane w celach komercyjnych, w mediach społecznościowych, do płatnych reklam i innych kanałów. Zaleca się sprawdzenie faktów, podanie odniesień i przestrzeganie przepisów przed opublikowaniem treści z ChatGPT. 

Ani Polityka prywatności, ani Warunki nie określają, czy narzędzie AI DeepSeek zostało przeszkolone na materiałach chronionych prawem autorskim. Co więcej, nie udzielają również żadnych gwarancji, że wyniki nie naruszą czyichkolwiek praw autorskich. Warunki korzystania z DeepSeek stanowią, że użytkownicy zachowują prawa do swoich danych wejściowych (podpowiedzi), ale nie oznacza to, że są one chronione prawami autorskimi, dlatego użytkownicy powinni podjąć odpowiednie kroki, aby mieć pewność, że podpowiedzi, których używają, nie stanowią czyjejś własności intelektualnej.

W Warunkach wyraźnie wskazano również, że użytkownik jest odpowiedzialny za wszystkie dane wejściowe i odpowiadające im dane wyjściowe, więc mając to na uwadze, użytkownicy powinni niezależnie je zweryfikować, szukając porady prawnej i/lub korzystając z baz danych praw autorskich. Na przykład, Katalog publiczny Urzędu ds. praw autorskich USA umożliwia użytkownikom wyszukiwanie zarejestrowanych dzieł w USA, podczas gdy Odwrotne wyszukiwanie obrazów Google pomaga sprawdzić, czy obraz był wcześniej publikowany lub objęty prawami autorskimi.

Dokładność i niezawodność

Warunki korzystania z DeepSeek mówią, że wyniki są generowane przez sztuczną inteligencję, a zatem mogą zawierać błędy i/lub pominięcia. odnosi się konkretnie do kwestii medycznych, prawnych i finansowych o które użytkownicy mogą pytać DeepSeek i w jaki sposób wyniki DeepSeek nie stanowią porady. Ale szerzej rzecz biorąc, mówi to samo o „kwestiach zawodowych”, co może dotyczyć niemal wszystkiego — od marketingu i badań po technologię, edukację i wiele więcej — a wyniki nie...reprezentować opinie każdy polu zawodowymUżytkownicy powinni zatem niezależnie weryfikować dokładność wszystkich wyników DeepSeek.

Bezpieczeństwo i poufność

Polityka prywatności DeepSeek wyjaśnia, że ​​dane wejściowe użytkownika są przetwarzane w celu generowania wyników, ale także w celu: ulepszyć usługę DeepSeek. To zawiera „szkolenie i udoskonalanie [ich] technologii”. Użytkownicy powinni zatem zachować ostrożność przy wprowadzaniu poufnych informacji, mimo że DeepSeek ma „komercyjnie uzasadniony' środki wdrożone w celu ochrony danych i informacji używanych jako dane wejściowe, nie zapewniają żadnych absolutnych gwarancji. Warunki DeepSeek stanowią, że nie publikują danych wejściowych ani wyjściowych na forach publicznych, ale niektóre mogą być udostępniane osobom trzecim.

Stosowanie

Wszelkie treści generowane przez użytkowników za pośrednictwem DeepSeek mogą być wykorzystywane w celach komercyjnych, ale ze względu na szare obszary wokół plagiatu i dokładności użytkownicy powinni podjąć kroki w celu weryfikacji treści przed wykorzystaniem jej w ten sposób. Warunki korzystania z usługi DeepSeek nie odnoszą się do żadnych ograniczeń dotyczących tego, gdzie na świecie użytkownicy mogą publikować te treści, ale wyraźnie stanowią, że użytkownicy muszą oświadczyć, że jest ona generowana przez sztuczną inteligencję, „aby uświadomić opinii publicznej syntetyczny charakter treści”.

Canva nie jest prawnie zobowiązana do ujawniania źródeł danych szkoleniowych. Dlatego nie wiemy, czy materiały chronione prawem autorskim są wykorzystywane. Użytkownik jest właścicielem całej zawartości wejściowej i wyjściowej (nie Canva), ale Canva może używać tej treści w celu ulepszania swoich usług. 

Dokładność i niezawodność

Niedźwiedzie płócienne brak odpowiedzialności za dokładność treściUżytkownik powinien zawsze weryfikować fakty. 

Bezpieczeństwo i poufność

Canva wykorzystuje zawartość wejściową do trenowania swojego modelu. To jest odpowiedzialność użytkownika za unikanie używania poufnych lub osobistych informacji do wprowadzania danych. Canva próbuje filtrować takie dane wejściowe do trenowania modelu, ale nie ma żadnych gwarancji. Narzędzie AI Canva nie ponosi odpowiedzialności za problemy bezpieczeństwa spowodowane przez użytkownika.

Stosowanie

Użytkownicy Canva mogą używać generowana treść w celach komercyjnych. Są Warunki, choć, jak nie publikowanie wprowadzająca w błąd treść. Firma ma lista rzeczy zabronionych, w sekcji zatytułowanej „Bądź dobrym człowiekiem”.

Podobnie jak ChatGPT, DALL-E nie deklaruje źródeł dla swojego treningu modelu. Jeśli jednak znajdziesz treści chronione prawem autorskim, można złożyć wniosek o usunięcie. Trudno sprawdzić, czy DALL-E narusza prawa autorskie, ponieważ żadne przepisy nie wymagają od DALL-E ujawniania źródeł danych. Dane wejściowe użytkownika, zgodnie z Warunkami, można użyć do trenowania modelu DALL-E — nawet jeśli jest to treść chroniona prawem autorskim. Użytkownik może z tego zrezygnować.  

DALL-E własna zawartość wejściowa i wyjściowa użytkownika (nie DALL-E), ale to nie oznacza, że ​​użytkownik ma prawa autorskie do tej treści. Ponadto użytkownicy nie można twierdzić, że treść DALL-E jest generowana przez człowieka.

Dokładność i niezawodność

Niedźwiedzie DALL-E brak odpowiedzialności za niedokładną treść. Jego Warunki przenoszą wszelką odpowiedzialność na użytkownika. Odpowiedzialność ta obejmuje niezawodność treści, dokładność, jakość, bezpieczeństwo i kompletność. Tak więc przed publikacją, użytkownicy powinni zawsze korzystać z odsyłaczy, sprawdzać aktualizacje, weryfikować fakty i konsultować się z ekspertamiponieważ publikowanie fałszywych informacji może skutkować konsekwencjami prawnymi lub uszczerbkiem na reputacji. 

Bezpieczeństwo i poufność

Polityka prywatności i Warunki korzystania z serwisu DALL-E nigdy nie odnoszą się wprost do odpowiedzialności w przypadku naruszenia bezpieczeństwa. DALL-E ma jednak wdrożone środki bezpieczeństwa. Kto ponosi odpowiedzialność w przypadku włamania, zależy od przepisów regionalnych.

DALL-E zbiera dane wejściowe użytkownika w celu trenowania modelu, nawet dane osobowe, ale możesz z tego zrezygnować. Jednak z API DALL-E inaczej obsługuje dane wejściowe; nie wykorzystuje danych od użytkowników biznesowych do trenowania swoich modeli

Stosowanie

Kurs użytkownik jest właścicielem zawartości wejściowej i wyjściowej DALL-E; muszą również zapewnić, że treść nie narusza żadnych przepisów prawa ani Warunków DALL-E. Nie możesz twierdzić, że zawartość DALL-E jest generowana przez człowieka, ale nie trzeba też mówić, że jest to dzieło sztucznej inteligencji. 

Możesz używać DALL-E w celach komercyjnych, o ile przestrzegasz wszystkich przepisów i Warunków DALL-E. Przepisy mogą ulec zmianie, ale w chwili pisania tego tekstu użytkownicy mogą publikować treści DALL-E w mediach społecznościowych, w reklamach i innych kanałach. Użytkownicy powinni zawsze podawać właściwe odniesienia i sprawdzać dokładność faktów, aby uniknąć naruszenia jakichkolwiek przepisów.

Bing nie ma obowiązku udostępniania źródeł danych szkoleniowych, co bardzo utrudnia ustalenie, czy Bing AI nieumyślnie korzysta z treści chronionych prawem autorskim. Chociaż trudno to zidentyfikować, użytkownicy mogą zgłaszać roszczenia dotyczące treści chronionych prawem autorskim. Umowa o usługach Microsoft mówi, że Bing AI pobiera dane wejściowe i wyjściowe od użytkowników, aby ulepszyć swój model, ale nie ma żadnych formalnych działań zapobiegających kradzieży własności intelektualnej.

Kurs Umowa o usługach stanowi, że użytkownicy udzielają firmie Microsoft ogólnoświatowej i wolnej od opłat licencyjnych licencji na własność intelektualną w celu korzystania z treści. Ponadto Bing/Microsoft pobiera dane wejściowe od użytkownika w celu trenowania modeli AI.

Dokładność i niezawodność

Firma Microsoft nie udziela żadnych gwarancji co do dokładności ani aktualności treści z usług AI. Dlatego powinieneś sprawdzać fakty dotyczące wszystkiego, co dotyczy narzędzi AI firmy Microsoft, zwłaszcza jeśli jesteś właścicielem firmy i chcesz uniknąć jakichkolwiek konsekwencji reputacyjnych i prawnych. 

Bezpieczeństwo i poufność

Narzędzia AI firmy Microsoft (w tym Bing AI) wykorzystywać dane osobowe i poufne użytkowników do trenowania swoich modeliUmowa o świadczenie usług nie obejmuje treści generowanych przez sztuczną inteligencję; zamiast tego firma stara się przenieść całą odpowiedzialność za treści generowane przez sztuczną inteligencję na użytkownika. Firma Microsoft nie ponosi również żadnej odpowiedzialności za praktyki prywatności i bezpieczeństwa swoich klientów. Krótko mówiąc, jeśli Twoje dane zostaną naruszone podczas korzystania z Bing AI, to jest to Twój problem, a nie Microsoftu.  

Stosowanie

Firma Microsoft nie rości sobie praw własności do treści użytkownika, ale nie reguluje konkretnie treści generowanych przez AI, których własność jest niepewna. Umowa o świadczenie usług pozwala ludziom na korzystanie z treści w celach komercyjnych, z pewnymi istotnymi zastrzeżeniami: musisz zaakceptować, że treści generowane przez AI nie są kreatywne, więc nie mogą być uznane za własność intelektualną; nie możesz również naruszać praw własności intelektualnej innych osób. Krótko mówiąc, nie możesz korzystać z własności intelektualnej innych osób, ale wszystko, co tworzysz za pomocą Bing, prawdopodobnie nie jest Twoją własnością intelektualną.

Quillbot ma brak obowiązku ujawniania źródeł, z których korzysta w celu trenowania modeli. Jednak firma ciekawie próbuje regulować jedną wyjątkową sytuację: co jeśli źródłem treningu modelu jest wyjście AI? Quillbot zasadniczo próbuje zminimalizować potencjalne wyjście chronione prawem autorskim, ale stwierdza, że ​​nadal istnieje szansa, że ​​wyjście jest chronione prawem autorskim, jeśli użytkownicy wprowadzają treści chronione prawem autorskim. Aby jeszcze bardziej skomplikować sprawę, Quillbot próbuje objąć wszystkie obszary, mówiąc, że użytkownicy udzielają Quillbot nieograniczonej licencji z możliwością sublicencjonowania, jednocześnie twierdząc, że użytkownicy są właścicielami wszystkich swoich wyjść. 

Dokładność i niezawodność

Niedźwiedzie Quillbot brak odpowiedzialności za dokładność i niezawodnośćUżytkownicy powinni być bardzo ostrożni i weryfikować wszystkie fakty z Quillbot. 

Bezpieczeństwo i poufność

Quillbot ma środki ochrony prywatności użytkowników, ale nadal może skończyć się przetwarzaniem danych osobowych. Istnieją specjalne zabezpieczenia prywatności dzieci. Odpowiedzialność za utratę danych w wyniku włamania jest rozpatrywana indywidualnie. Quillbot stwierdza, że ​​użytkownik powinien podjąć kroki, aby zapobiec włamaniu się do jego danych osobowych, a Quillbot ma wdrożone elementy ochrony danych. 

Stosowanie

Użytkownicy Quillbota mogą publikować wygenerowane treści w celach komercyjnych, ale może być konieczne przestrzeganie pewnych zasad, takich jak niepublikowanie szkodliwych lub wprowadzających w błąd treści. Regulamin nie mów, że musisz zadeklarować, że jego zawartość jest generowana przez AI. Krótko mówiąc, użytkownik może publikować treści generowane przez Quillbota pod warunkiem, że nie narusza to żadnych praw ani przepisów. 

Pixlr nie ujawnia źródeł szkolenia modeli AI, ponieważ nie ma prawnego obowiązku, aby to robić. W jego Warunkach jest napisane, że użytkownik jest właścicielem treści, ale użytkownicy również udzielić Pixlr licencji na korzystanie z treści. Jest to próba zminimalizowania wykorzystania treści chronionych prawem autorskim. 

Dokładność i niezawodność

Pixlr nie ponosi odpowiedzialności za nieścisłości w treści generowanej przez AI. Użytkownicy powinni uważać na sprawdzanie faktów we wszystkim, co jest w Pixlr. 

Bezpieczeństwo i poufność

Pixlr pobiera dane wejściowe od użytkownika w celu trenowania modelu AI. Przerzuca na użytkownika ciężar ostrożności przy wprowadzaniu danych informacje osobiste lub poufnePixlr zrzeka się swojej odpowiedzialności za filtrowanie niektórych informacji z danych treningowych, choć używa niektórych filtrów do blokowania danych osobowych lub poufnych. Pixlr twierdzi, brak odpowiedzialności za problemy bezpieczeństwa spowodowane działaniami użytkowników

Stosowanie

Użytkownicy mogą publikować treści generowane przez sztuczną inteligencję za pomocą Pixlr w celach komercyjnych (choć obowiązują pewne warunki). Warunki nie wymagaj, abyś stwierdził, że cokolwiek jest generowane przez AI. Użytkownicy nadal ponoszą odpowiedzialność za naruszenie praw lub przepisów. 

W połowie drogi użytkownicy udzielają firmie praw do wszystkich aktywów wytworzonych za jej pośrednictwem, ale użytkownik jest również właścicielem wszystkich aktywówIstnieją wyjątki, na przykład takie, że nie możesz rościć sobie praw własności, jeśli właśnie przeskalowałem obraz od oryginalnego twórcy.

Dokładność i niezawodność

Midjourney nie ponosi odpowiedzialności za rzetelność i dokładność jego treści. Użytkownicy powinni zatem zachować szczególną ostrożność, aby zweryfikować fakty i sprawdzić wiarygodność. 

Bezpieczeństwo i poufność

Midjourney trenuje swój model na podstawie danych wprowadzanych przez użytkownika, nawet jeśli obejmuje on: dane osobowe lub poufne. Midjourney twierdzi, że użytkownik powinien uważać na poufne dane, więc to nie jest jego problem. Firma próbuje filtrować pewne informacje do trenowania modelu, ale nie jest to wymagane. Midjourney nie ponosi odpowiedzialności za problemy bezpieczeństwa, które mogą wystąpić w wyniku działań użytkownika. 

Stosowanie

Użytkownicy Midjourney mogą publikować wygenerowane treści w celach komercyjnych. Niektóre warunki, takie jak wymóg subskrypcji wersji Pro jeśli firma zarabia ponad 1 mln dolarów rocznie, zastosuj. W chwili pisania tego tekstu użytkownicy nie muszą twierdzić, że cokolwiek jest generowane przez AI z Midjourney, mimo że trwają prace nad ustawodawstwem mającym to zmienić. Użytkownicy mogą generalnie korzystać z dowolnej zawartości Modjourney, jeśli nie narusza ona żadnych praw ani przepisów. 

Clipchamp to produkt firmy Microsoft, więc nie rości sobie prawa do udostępniania źródeł danych do trenowania modeli. Dlatego trudno stwierdzić, czy narzędzie AI nieumyślnie wykorzystuje dane chronione prawem autorskim. Ktoś musi zidentyfikować naruszenie praw autorskich, aby zgłosić roszczenie, co jest mało prawdopodobne. Umowa o usługach firmy Microsoft mówi: może wykorzystywać dane wejściowe i wyjściowe użytkownika w celu ulepszania usług, a Microsoft nie reguluje kwestii własności intelektualnej. Ponadto, użytkownicy udzielają firmie Microsoft ogólnoświatowej, wolnej od opłat licencyjnych licencji na własność intelektualną

Dokładność i niezawodność

Clipchamp i Microsoft nie udziela żadnych gwarancji w zakresie dokładności lub aktualności swoich narzędzi AI, więc użytkownicy powinni zweryfikować wszystkie fakty przed publikacją. Dotyczy to w szczególności właścicieli firm, którzy mogą ponieść konsekwencje prawne i reputacyjne. 

Bezpieczeństwo i poufność

Clipchamp i Microsoft wykorzystaj dane osobowe i poufne do szkolenia modeliMicrosoft próbuje przerzucić odpowiedzialność za wszelkie problemy z treścią na użytkownika. To samo dotyczy włamań i naruszeń bezpieczeństwa; jeśli cokolwiek się stanie, odpowiedzialność ponosi użytkownik. 

Stosowanie

Clipchamp i Microsoft unikają regulowania treści generowanych przez sztuczną inteligencję, nigdy nie twierdząc, że Microsoft jest właścicielem treści. Technicznie rzecz biorąc, Microsoft twierdzi, że użytkownik jest jego właścicielem, ale bez praw własności intelektualnej. Użytkownik może publikować treści Clipchamp w celach komercyjnych z dwoma zastrzeżeniami: nie możesz naruszać praw własności intelektualnej ani twierdzić, że masz prawa własności intelektualnej do wygenerowanej treści. 

Looka Regulamin stwierdzają, że firma nie ma obowiązku udostępniania źródeł danych szkoleniowych, więc tego nie robią. Użytkownicy ponoszą wszelkie ryzyko podczas korzystania z treści generowanych przez Looka. 

Dokładność i niezawodność

Looka nie ponosi żadnej odpowiedzialności za dokładność i niezawodność wyników uzyskiwanych za pomocą narzędzi sztucznej inteligencji. Użytkownicy powinni zweryfikować wszystkie fakty i sprawdź niezawodność. 

Bezpieczeństwo i poufność

Looka wykorzystuje dane wejściowe — nawet potencjalnie dane osobiste i poufne — do trenowania swojego modelu, więc użytkownik jest odpowiedzialny za to, aby nie używać tego typu danych w swoich danych wejściowych. Looka próbuje filtrować takie dane, ale twierdzi, że nie musi. Ponadto wszystkie problemy bezpieczeństwa są obciążeniem użytkownika. 

Stosowanie

Użytkownicy Looka mogą wykorzystywać treści generowane przez sztuczną inteligencję w celach komercyjnych, ale może być konieczne przestrzeganie pewnych warunków lub zapłacić opłatę. Użytkownicy nie muszą oznaczać wygenerowanej przez siebie treści jako wygenerowanej przez AI. Użytkownicy powinni unikać publikowania wygenerowanej treści, która narusza prawa lub przepisy. 

Nie można stwierdzić, czy Speechify trenuje swój model na materiałach chronionych prawem autorskim. Po prostu nie wiemy. Warunki Speechify zalecają nieużywanie materiałów chronionych prawem autorskim do danych wejściowych, co sugeruje, że niektóre dane wyjściowe mogą zawierać dane chronione prawem autorskim. Speechify twierdzi, że nie ponosi za to żadnej odpowiedzialności

Dokładność i niezawodność

Speechify, zgodnie z jego Regulamin, nie bierze odpowiedzialności za dokładność swoich wyników. Użytkownicy powinni zawsze sprawdzać aktualność, niezawodność i dokładność Speechify. 

Bezpieczeństwo i poufność

Perorować przenosi wszelką odpowiedzialność na użytkownika w przypadku wprowadzania poufnych lub osobistych danych. Narzędzie używa danych wejściowych do trenowania modeli, więc użytkownicy powinni być ostrożni. Speechify niekoniecznie musi filtrować poufne lub osobiste dane, ale próbuje to robić za pomocą niektórych filtrów. Cała odpowiedzialność za kwestie bezpieczeństwa jest przenoszona na użytkownika. 

Stosowanie

Użytkownicy Speechify mogą używać wyniki w celach komercyjnych, z pewnymi warunkami, takimi jak konieczność wykupienia subskrypcji lub uzyskania licencji. Użytkownicy nie trzeba deklarować, że treść Speechify jest generowana przez sztuczną inteligencjęUżytkownicy Speechify nie powinni jednak nigdy łamać praw ani przepisów podczas publikowania wyników Speechify. 

Kapwing Warunki nakładają na użytkownika wszelką odpowiedzialność za własność intelektualną i dokładność. Wszyscy użytkownicy udzielają Kapwing niewyłącznej licencji, ale użytkownicy zachowują prawo własności do treści. Kapwing nie ujawnia, czy wykorzystuje dane wejściowe do trenowania modelu. 

Dokładność i niezawodność

Kapwing przenosi całą odpowiedzialność za dokładność na użytkownika, w szczególności wszelkie konsekwencje prawne i reputacyjne.

Bezpieczeństwo i poufność

Użytkownicy Kapwing biorą na siebie wszelkie ryzyko, decydując się na wprowadzenie poufnych informacji do narzędzia AI. Nie oferuje również żadnej gwarancji ani odpowiedzialności za bezpieczeństwo usługi.

Stosowanie

Możesz publikować treści Kapwing komercyjnie, ale Kapwing radzi użytkownikom zachować ostrożność. Ich warunki nie mówią, czy użytkownicy muszą deklarować, że dane wyjściowe z Kapwing są generowane przez sztuczną inteligencję.

Otter.ai oświadcza, że ​​nie zezwala na publikowanie w swoich serwisach materiałów naruszających prawa autorskie, jednak trudno zweryfikować to twierdzenie. Użytkownicy zachowują prawo własności i prawa autorskie do danych wejściowych i posty w Otter.ai, ale Otter.ai mówi użytkownicy są odpowiedzialni dla nie wprowadzanie wcześniej chronionych prawem autorskim treści. Wydra.ai może również wykorzystywać dane wejściowe do uczenia maszynowego.

Dokładność i niezawodność

Otter.ai wyklucza się z odpowiedzialności za dokładność i niezawodność, więc użytkownicy powinni zawsze weryfikować treść. Korzystanie z informacji wprowadzających w błąd lub nieprawidłowych może spowodować problemy prawne lub reputacyjne dla użytkownika. 

Bezpieczeństwo i poufność

Wszelkie ryzyko ujawnienia poufnych informacji na Otter.ai należy do użytkownika. 

Stosowanie

Użytkownicy mogą publikować treści w celach komercyjnych ponieważ użytkownicy są właścicielami treści z Otter.ai. To powiedziawszy, treści generowane przez AI nie mają jasnych zasad własności. Otter.ai stwierdza również jego przepisane notatki można przeszukiwać i udostępniać.

PhotoRoom może pobierać dane wejściowe i wyjściowe użytkownika w celu trenowania modelu, ale istnieją ograniczone informacje na temat tego, czy usługa to robi, czy nie. Warunki PhotoRoom przypominają użytkownikom, aby unikali wprowadzania treści chronionych prawem autorskim. Użytkownicy ponoszą wszelką odpowiedzialność dla tego. 

Dokładność i niezawodność

fotopokój nie ponosi żadnej odpowiedzialności za dokładność ani niezawodność treści generowanych przez sztuczną inteligencjęUżytkownicy powinni przeprowadzić własne kontrole, aby to zweryfikować.

Bezpieczeństwo i poufność

PhotoRoom korzysta z danych wejściowych do trenowania swoich modeli. Użytkownicy ponoszą odpowiedzialność za wprowadzanie informacji poufnych or Informacje osobiste. Usługa próbuje filtrować tego typu dane wejściowe, ale nie twierdzi, że ma taki obowiązek. Użytkownicy ponoszą wszelką odpowiedzialność za kwestie bezpieczeństwa. 

Stosowanie

Zawartość PhotoRoom można używać w celach komercyjnych, ale mogą obowiązywać pewne warunki, takie jak zapisanie się na subskrypcję. Warunki stanowią, że nie musisz oznaczać treści jako wygenerowanej przez AI. Użytkownicy mogą zobaczyć inne reperkusje, jeśli naruszą prawa lub przepisy. 

Odpowiedzialność

Niniejsze informacje mają charakter wyłącznie ogólnoinformacyjny i nie należy ich traktować jako porady prawnej. Platformy e-commerce nie ponoszą odpowiedzialności za błędy lub pominięcia. Skonsultuj się z odpowiednim prawnikiem, aby uzyskać porady i wskazówki dostosowane do Twoich konkretnych potrzeb i okoliczności.

Podsumowanie

Wszechobecność sztucznej inteligencji sprawia, że ​​coraz częściej korzystamy z narzędzi i aplikacji opartych na tej technologii — jednak wielu z nas nie może sobie pozwolić na poświęcenie czasu na zapoznanie się z ich regulaminem. 

W 2017 roku sieć usług profesjonalnych Deloitte znalazłem to 91% konsumentów „dobrowolnie akceptować warunki prawne bez ich czytania” — wzrastając do 97% w grupie wiekowej od 18 do 34 lat.

Biorąc pod uwagę, jak wiele regulaminów dotyczących sztucznej inteligencji oceniliśmy jako mało czytelne, wydaje się, że Nieprzenikniona terminologia prawnicza tych dokumentów zniechęca użytkowników nawet do prób ich zrozumienia. 

Współpracowaliśmy z prawnikiem, który przeanalizował dla nas dokumenty, ale nie jest jasne, czy jest to konieczne.

Mamy nadzieję, że te badania — w tym oceny czytelności i wiedza Josildy Ndreaj na temat warunków, o których należy pamiętać — pomogą Ci w wyborze aplikacji i narzędzi AI, z których chcesz korzystać. 

Metodologia i źródła

Jak przeprowadziliśmy badanie

Zaczynając od listy początkowej około 90 narzędzi i aplikacji AI, najpierw zebraliśmy dokumentację prawną każdego narzędzia, od warunków i zasad po zasady ochrony prywatności. Następnie zarejestrowaliśmy długość słów w tych dokumentach i obliczyliśmy ich wynik czytelności, korzystając z systemu oceniania Flesch-Kincaid. Następnie zwróciliśmy się o pomoc do eksperta prawnego, Josildy Ndreaj (LLM), która przejrzała wybór tych dokumentów prawnych i zidentyfikowała kluczowe punkty, o których użytkownicy powinni wiedzieć.

W przypadku około 30 narzędzi AI, które mają dostępne wersje aplikacji mobilnych, przeszukaliśmy każde z nich w sklepie Apple App Store i zarejestrowaliśmy ich etykiety prywatności wyświetlane na ich listach. Są one podzielone na 14 kategorii danych, które można zbierać od użytkowników, i w jakim celu. Aby obliczyć, które aplikacje AI zebrały najwięcej danych, zmierzyliśmy, w ilu z 14 możliwych kategorii te aplikacje śledziły swoich użytkowników. 

Ważne jest, aby pamiętać, że te 14 kategorii jest dalej podzielone na indywidualne punkty danych. Na przykład „Informacje kontaktowe” obejmują pięć punktów danych, którymi są: „Imię”, „Adres e-mail”, „Numer telefonu”, „Adres fizyczny” i „Inne informacje kontaktowe użytkownika”. Aby dowiedzieć się, które aplikacje zbierają najwięcej indywidualnych punktów danych, spójrz na ostatnią kolumnę w każdej z tabel.

Niektóre aplikacje będą zbierać więcej indywidualnych punktów danych niż te, które pojawiają się wyżej w rankingu. Wynika to z faktu, że nasza metodologia rankingowa bierze pod uwagę, które aplikacje zbierają dane w większości kategorii, co sugeruje szerszy i tym samym bardziej „kompletny” obraz danych użytkownika, a nie głębokość informacji, które zbierają w każdej kategorii. 

Źródła

Prośby o korektę

Okresowo aktualizujemy te badania.

Jeśli jesteś właścicielem któregokolwiek z narzędzi AI uwzględnionych w tym badaniu i chciałbyś zakwestionować informacje na tej stronie, jesteśmy gotowi je zaktualizować pod warunkiem, że przejrzymy dostarczone przez Ciebie dowody. Kontaktując się z nami w tej sprawie, prosimy o: 

  • dokumenty biznesowe potwierdzające Twoją legalność (na przykład świadectwo założenia spółki lub dokumenty rejestracyjne) 
  • informacje na tej stronie uważasz za nieaktualne (proszę podać szczegóły)
  • jak należy je aktualizować i dlaczego, wraz z linkami do dokumentacji, która to potwierdza (na przykład zmiany w Warunkach korzystania z usługi)

Skontaktuj się z nami na [email chroniony] w temacie wiadomości wpisz: „Prośba o korektę: badanie narzędzi AI” i podaj nazwę narzędzia AI, w sprawie którego się z nami kontaktujesz.

Bogdan Rancea

Bogdan Rancea jest współzałożycielem Ecommerce-Platforms.com i głównym kuratorem ecomm.design, witryny prezentującej najlepsze witryny e-commerce. Dzięki ponad 12-letniemu doświadczeniu w branży handlu cyfrowego ma ogromną wiedzę i wyczucie doskonałych doświadczeń w handlu internetowym. Jako odkrywca technologii e-commerce Bogdan testuje i recenzuje różne platformy i narzędzia projektowe, takie jak Shopify, Figma i Canva, a także udziela praktycznych porad właścicielom sklepów i projektantom.