Di sebalik cetakan halus: Memahami apl dan privasi AI

Jika anda melanggan perkhidmatan daripada pautan di halaman ini, Reeves and Sons Limited mungkin mendapat komisen. Lihat kami pernyataan etika.

Kecerdasan buatan dengan cepat telah menjadi sebahagian daripada zeitgeist kontemporari — namun pertimbangan etika di sekeliling subjek masih tidak dapat diselesaikan. Berapa ramai pengguna yang mengetahui sepenuhnya perkara yang mereka daftarkan?

Di sini, dengan mengambil kira terma dan syarat serta dasar privasi di sebalik alatan dan apl AI yang paling popular, Platform E-dagang membongkar perkara yang anda perlu ketahui apabila menggunakan alatan ini untuk keperluan perniagaan harian anda.

Kami telah menganalisis data dan maklumat peribadi yang dikumpul oleh alat ini (dan untuk tujuan apa) untuk membantu anda menentukan yang mana Alat AI, perisian dan platform adalah yang paling sesuai untuk kegunaan anda. Kami juga berunding dengan pakar undang-undang untuk memecahkan jargon di sebalik terma dan syarat alat ini.

Kami menganalisis label privasi Apple App Store untuk kira-kira 30 versi aplikasi mudah alih alat AI popular yang tersedia untuk memahami yang mana yang mengumpul data anda dan sebabnya. 

Data yang dikumpul daripada pengguna (dan tujuannya) dibahagikan kepada 14 kategori, membolehkan anda menentukan apl yang mengumpul dan menjejaki data pengguna yang paling banyak.

Untuk butiran lanjut, lihat bahagian metodologi di penghujung halaman ini.

Apakah data yang dikumpul oleh aplikasi AI ini?

Alat AI yang dinilai dalam penyelidikan ini mengumpul data pelbagai jenis. Sebahagian daripada ini menumpukan pada butiran peribadi tentang pengguna — daripada nama skrin dan butiran bank, kesihatan dan kecergasan mereka, malah maklumat sensitif seperti kaum/etnik, orientasi seksual, identiti jantina dan pendapat politik. 

Yang lain berkaitan dengan kandungan yang dibuat oleh pengguna (seperti e-mel dan mesej, foto, video dan rakaman bunyi), atau cara pengguna berinteraksi dengan produk itu sendiri, seperti sejarah carian dalam apl mereka atau iklan yang mereka lihat. Maklumat diagnostik yang lebih tidak peribadi yang dikumpul untuk menunjukkan data ranap sistem atau penggunaan tenaga.

Mengapa apl AI ini mengumpul data?

Terdapat sebab yang berbeza mengapa apl mengumpul data, sesetengah daripadanya mungkin dilihat lebih wajar daripada yang lain — contohnya, biometrik atau maklumat hubungan boleh digunakan untuk mengesahkan identiti pengguna.

Begitu juga, akses kepada data tertentu mungkin diperlukan untuk apl berfungsi dengan betul, termasuk untuk mencegah penipuan atau meningkatkan kebolehskalaan dan prestasi.

Lebih khusus lagi, apl pemesejan memerlukan akses kepada kenalan, kamera telefon dan mikrofon untuk membenarkan panggilan, manakala geolokasi diperlukan untuk apl teksi atau penghantaran.

Boleh dikatakan sebab yang kurang penting untuk mengumpul data termasuk pengiklanan atau pemasaran oleh pembangun apl (contohnya, untuk menghantar komunikasi pemasaran kepada pengguna anda); mendayakan pengiklanan pihak ketiga (dengan menjejak data daripada apl lain untuk mengarahkan iklan yang disasarkan kepada pengguna, contohnya); dan menganalisis tingkah laku pengguna untuk tujuan termasuk menilai keberkesanan ciri sedia ada atau merancang yang baharu.

Hai pengguna mudah alih 👋 Jadual di bawah boleh ditatal secara mendatar untuk melihat semua data, tetapi halaman ini pasti kelihatan lebih baik Desktop.

Apl AI yang mengumpul data anda untuk dikongsi dengan pengiklan pihak ketiga

Pengepala lajur dengan butang boleh diisih.
aplikasi AI % data dikongsi dengan orang lain Sejarah Penyemakan Maklumat Hubungan Pengenal pasti Lokasi Data lain Pembelian Sejarah carian Data Penggunaan Bilangan mata data yang dikumpul
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Pembantu Google 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
rahim 14% 1 1 2
SembangGPT 7% 1 1
Genie AI 7% 1 1
lensa 7% 1 1
Ucapkan ucapan 7% 1 1
starryai 7% 1 1

Daripada semua aplikasi AI yang disertakan dalam penyelidikan kami, Canva, alat reka bentuk grafik, mengumpulkan paling banyak data daripada penggunanya untuk tujuan pengiklanan pihak ketiga — sekitar 36%. Sebaliknya, lima aplikasi yang mengumpul data paling sedikit untuk tujuan ini mengumpulkan lebih daripada 7%.

Data yang dikumpulkan oleh apl Canva daripada anda dan dikongsi dengan pihak ketiga termasuk sejarah carian anda, lokasi, alamat e-mel dan maklumat lain yang ditunjukkan dalam jadual di atas. 

Mengikut rapat Canva ialah apl pembelajaran bahasa gamified Duolingo (~36%), Pembantu Google (~21%), dan Bing milik Microsoft (~14%) — kesemuanya juga berkongsi data anda dengan pihak ketiga

Daripada lima apl yang mengumpul data paling sedikit, sahaja starryai (penjana imej) mengehadkan dirinya untuk berkongsi data penggunaan semata-mata.

Apl AI yang mengumpul data anda untuk faedah mereka sendiri

Pengepala lajur dengan butang boleh diisih.
app % data dikumpul untuk manfaat apl sendiri Sejarah Penyemakan Maklumat Hubungan Pengenal pasti Lokasi Pembelian Sejarah carian Data Penggunaan Bilangan mata data yang dikumpul
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Pembantu Google 36% 1 2 2 1 2 8
Bilik Foto 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
Bing 14% 1 1 2
lensa 14% 1 1 2
Berang 7% 2 2
youper 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Ucapkan ucapan 7% 1 1
rahim 7% 1 1

Canva juga mendahului carta untuk apl AI yang mengumpul data pengguna untuk tujuan pengiklanan atau pemasaran mereka sendiri. Untuk berbuat demikian, Canva mengumpul sekitar 43% daripada data pengguna mereka.

Di tempat ketiga, Amazon Alexa mengumpul 36% data anda untuk tujuan yang sama. Ini termasuk alamat e-mel anda, alamat fizikal, nombor telefon, sejarah carian dan sejarah pembelian, serta lima titik data lain. Pembantu Google mengumpul dan berkongsi peratusan data yang sama untuk sebab ini, walaupun merentasi lapan titik data individu, berbanding sepuluh yang Amazon Alexa kumpulkan.

. penjana suara text-to-speech, Speechify, adalah antara aplikasi yang mengumpul data paling sedikit. Menurut label privasi penyenaraian Apple App Store, Speechify kumpulkan hanya satu titik data untuk faedah sendiri; ID peranti anda.

Apl AI yang mengumpul data anda untuk sebarang tujuan

Pengepala lajur dengan butang boleh diisih.
app % data dikumpul Sejarah Penyemakan Maklumat Hubungan Hubungi Diagnostik Maklumat Kewangan Kesihatan & Kecergasan Pengenal pasti Lokasi Data lain Pembelian Sejarah carian Maklumat Sensitif Data Penggunaan Kandungan Pengguna Bilangan mata data yang dikumpul
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Pembantu Google 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Berang 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA Cakap 43% 2 6 6 3 3 3 23
Bilik Foto 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
SembangGPT 36% 4 8 5 7 2 26
Kebingungan AI 36% 6 6 2 1 6 21
1 / 2

Semua model AI memerlukan beberapa bentuk latihan melalui pembelajaran mesin — bermakna itu mereka memerlukan data.

Jika kita mahu alatan AI bertambah baik dan menjadi lebih berguna, privasi kami boleh dilihat sebagai pertukaran yang diperlukan terhadap penyediaan data ini.

Namun, persoalan di mana garis antara utiliti dan eksploitasi harus dilukis, dan mengapa, adalah yang berduri.

Memandangkan kemasyhuran semasa, ia patut menangani DeepSeek. Penyenaraiannya di Apple App Store menyatakan bahawa DeepSeek tidak mengumpul data pengguna untuk faedahnya sendiri (contohnya, pemasaran dan pengiklanan DeepSeek sendiri) atau untuk berkongsi dengan pihak ketiga.

Tetapi ia bernilai menunjukkan bahawa perkhidmatan Dasar Privasi menyatakan sebaliknya (lebih lanjut mengenai ini kemudian). 

. Aplikasi DeepSeek sendiri mengumpul 50% data penggunanya, yang menyediakan Analitis dan Fungsi Apl DeepSeek. Sebagai perbandingan, Apl ChatGPT mengumpul 36%.

Sesetengah saluran media melaporkan kebimbangan tentang risiko keselamatan yang berkaitan dengan asal Cina DeepSeek (baik dari segi pengumpulan data dan kemungkinan penyebaran maklumat salah) dan mengurangkan saingan AS. Kedua-duanya tidak mungkin dapat diringankan oleh Terma dan Syarat DeepSeek serta Dasar Privasi, yang akan berlaku 35 minit untuk membaca, dan dinilai sebagai "sangat susah" pada skala kebolehbacaan Flesch-Kincaid.

Tidak kira bagaimana data anda digunakan, Amazon Alexa mengumpul lebih banyak data penggunanya daripada mana-mana aplikasi AI lain termasuk dalam penyelidikan ini. Secara keseluruhan, ia mengumpul 93% data anda (atau 116 metrik individu, terutamanya maklumat hubungan, kandungan pengguna dan data penggunaan).

Pembantu Google datang seterusnya, mengumpul 86% , diikuti oleh Duolingo, yang mengumpul 79% .

Di hujung skala yang lain, Penjana imej AI, Stable Diffusion, tidak mengumpul sebarang data. Itu menurut label privasi pada penyenaraian Apple App Storenya.

Walaupun benar semua itu AI generatif model memerlukan sejumlah besar data untuk dilatih, latihan ini berlaku sebelum pembangunan aplikasi tertentu. Dalam kebanyakan kes, pencipta aplikasi tidak memiliki model AI yang mereka gunakan; Oleh itu pengumpulan data pengguna berkaitan dengan kefungsian apl itu sendiri. Ini mungkin menjelaskan sebab sesetengah apl yang telah kami siasat tidak mempunyai maklumat dalam jadual di atas.

Menavigasi terma dan syarat di sebalik alatan AI

Sekarang, mari kita lihat pada dokumentasi undang-undang di sebalik alatan AI yang berbeza untuk mengetahui betapa senang atau susahnya mereka membaca. Ini adalah berdasarkan ujian peringkat gred bacaan Flesch-Kincaid.

Sistem ini menyamakan teks dengan tahap bacaan sekolah AS (dari gred kelima hingga ke-12), kemudian Kolej, Siswazah Kolej dan Profesional. Teks peringkat gred enam ditakrifkan sebagai "Bahasa Inggeris perbualan untuk pengguna", manakala teks yang dinilai profesional digambarkan sebagai "amat sukar dibaca".

Semakin rendah skor kebolehbacaan, semakin sukar teks untuk dibaca.

Pengepala lajur dengan butang boleh diisih.
Clipchamp 3 jam 16 minit 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 jam 20 minit 35.4 🤯🤯🤯🤯🤯
veed.io 2 jam 15 minit 37.9 🤯🤯🤯🤯🤯
Facetune 2 jam 4 minit 34.4 🤯🤯🤯🤯🤯🤯
TheB.AI 1 jam 47 minit 31.4 🤯🤯🤯🤯🤯🤯
Berang 1 jam 11 minit 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 jam 9 minit 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 jam 6 minit 30.9 🤯🤯🤯🤯🤯🤯
Ucapkan ucapan 1 jam 6 minit 35.0 🤯🤯🤯🤯🤯🤯
Landasan 1 jam 2 minit 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

Pada tahun 2023, syarikat insurans perniagaan British Superscript meninjau pemilik 500 perusahaan kecil dan sederhana (PKS) untuk mengetahui perkara yang paling banyak menghabiskan masa mereka.

Jelasnya, 'tidur yang cukup' — penting untuk kesihatan fizikal dan mental serta fungsi kognitif — menduduki tempat ketiga, mengekori 'bekerja berjam-jam lama' dan 'menyisih penyata cukai'.

Satu pertiga daripada mereka yang ditinjau merasakan bahawa tidak mungkin untuk melakukan semua pentadbir mereka semasa waktu bekerja, dan berkata mereka memerlukan empat jam tambahan sehari untuk mengharungi semuanya.

Ini memberikan gambaran betapa menghukumnya untuk menjalankan PKS, dan bahawa masa yang diperlukan untuk membaca terma dan syarat di sebalik alat yang mereka harapkan adalah bukan senang nak datang.

Dalam konteks ini, masa baca T&S selama 40 minit untuk alat transkripsi seperti Otter, Trint dan Descript, adalah sangat penting. 

dan itu mengandaikan ia mungkin untuk difahami terma dan syarat yang paling sukar dibaca. Inilah sebabnya kami mencari kepakaran pakar undang-undang.

Josilda Ndreaj, seorang profesional undang-undang dan peguam berlesen, telah mengemudi perkara undang-undang yang rumit bagi pihak pelanggan Fortune 500 dan memberikan nasihat kepada pelbagai syarikat.

Baru-baru ini, sebagai perunding bebas, dia telah tertumpu kepada undang-undang harta intelek di persimpangan teknologi blockchain dan kecerdasan buatan.

Josilda Ndreaj (LLM) ialah seorang peguam profesional undang-undang dan berlesen dengan kepakaran dalam undang-undang Harta Intelek (IP).

Kerjayanya sebagai perunding undang-undang bermula di firma undang-undang antarabangsa yang berprestij, memenuhi keperluan pelanggan Fortune 500. Di sini, Josilda menavigasi perkara undang-undang yang rumit dan memberikan nasihat kepada syarikat yang berbeza.

Didorong oleh minat dalam inovasi, kreativiti dan teknologi baru muncul, Josilda kemudiannya menceburi bidang perundingan bebas dan memberi tumpuan kepada undang-undang Harta Intelek, dengan meliputi persimpangan dengan teknologi blockchain dan kecerdasan buatan.

Josilda memegang dua ijazah Sarjana Undang-undang; satu pakar dalam Undang-undang sivil dan komersial dari Universiti Tirana, dan satu lagi memfokuskan pada undang-undang harta intelek, dari Universiti Ekonomi dan Undang-undang Zhongnan.

Oleh itu, Josilda adalah berkedudukan unik untuk menyemak pilihan dokumen undang-undang alat AI ini, mengeluarkan perkara penting untuk manfaat kita yang tidak memiliki dua ijazah Sarjana Undang-undang.

Ringkasannya digariskan di bawah:

Gemini (dahulunya Bard) tidak mempunyai kewajipan untuk mengisytiharkan sumber latihan, jadi kami tidak boleh menyemak sama ada ia dilatih pada bahan berhak cipta. Gemini tidak dikecualikan daripada liabiliti pelanggaran tersebut; jika pemilik hak cipta mengenakan caj, Gemini bertanggungjawab. Tetapi adalah penting untuk ambil perhatian bahawa Gemini dilatih tentang apa yang pengguna berikan kepadanya. Untuk ini, Gemini memerlukan lesen daripada pengguna. Jika pengguna bersetuju untuk memberikan lesen itu kepada Gemini, tetapi mereka (pengguna) sebenarnya tidak memiliki hak cipta, tanggungjawab beralih kepada pengguna.

Pengguna mengekalkan pemilikan input dan gesaan mereka, tetapi pemilikan output adalah lebih kompleks. Gemini tidak menjelaskan perkara ini dalam Syaratnya. Banyak undang-undang tidak mengiktiraf hak harta intelek mesin. Walau bagaimanapun, boleh dipersoalkan untuk berhujah bahawa output adalah "dijana manusia," walaupun jika pengguna memiliki input.

Ketepatan dan kebolehpercayaan

Sentiasa gunakan budi bicara apabila bergantung pada Gemini untuk mendapatkan maklumat yang tepat. Ianya Syarat Perkhidmatan menyatakan bahawa ketepatan tidak boleh diandaikan secara automatik oleh pengguna. Oleh itu, anda harus menyemak fakta semua kandungan yang dihasilkan daripada Gemini. 

Pemilik perniagaan tidak boleh menerbitkan output daripada Gemini tanpa merujuk silang, menyemak kemas kini dan menyemak dengan pakar untuk ketepatan. Jika tidak, mereka menghadapi risiko menerbitkan maklumat yang mengelirukan, yang mungkin membawa akibat reputasi atau undang-undang.

Keselamatan dan kerahsiaan

Google (pemilik Gemini) tidak memberikan maklumat dalam Dasar Privasinya tentang cara ia mengendalikan data sulit.

Penggunaan

Google tidak menyatakan apa-apa dalam Syarat Perkhidmatannya sama ada kandungan yang dijana oleh Gemini boleh digunakan untuk tujuan komersial. Ia menerangkan sekatan untuk perkara seperti hak harta intelek tetapi tiada yang khusus untuk kandungan yang dijana AI.

Pada masa ini, tiada undang-undang memerlukan ChatGPT untuk mengisytiharkan secara terbuka modelnya dilatih. Oleh itu, kerana ia tidak mendedahkan sumbernya, kami tidak dapat mengetahui sama ada ChatGPT menghantar atau memproses kandungan yang dilindungi oleh undang-undang hak cipta. Jika seseorang mengenal pasti kandungan berhak cipta daripada ChatGPT, mereka boleh membuat tuntutan untuk mengalih keluar kandungan itu.

Syarat ChatGPT menyatakan bahawa input pengguna, walaupun mempunyai hak cipta, digunakan untuk menambah baik perkhidmatan dan melatih model; dan pengguna tidak boleh menarik diri daripada ini. Syarat ChatGPT mengatakan bahawa pengguna memiliki semua kandungan input dan output (jika kandungan input telah digunakan secara sah), tetapi itu tidak menjamin bahawa pengguna memiliki hak cipta untuk kandungan input dan output tersebut. Selain itu, pengguna tidak boleh menyampaikan apa-apa daripada ChatGPT sebagai 'dijana manusia'.

Ketepatan dan kebolehpercayaan

Pengguna harus mengesahkan semua maklumat daripada ChatGPT. Itu kerana ChatGPT tidak bertanggungjawab untuk memberikan yang tepat, kandungan terkini. Menurut bahagian Penafian Warantinya, pengguna mengambil semua risiko ketepatan, kualiti, kebolehpercayaan, keselamatan dan kesempurnaan. Oleh itu, sentiasa sahkan fakta daripada ChatGPT; rujukan silang, semak kemas kini dan semak dengan pakar untuk ketepatan juga. Pemilik perniagaan mungkin menghadapi akibat undang-undang atau reputasi jika mereka tidak mengesahkan kandungan ChatGPT untuk ketepatan sebelum diterbitkan. 

Keselamatan dan kerahsiaan

ChatGPT mengumpul maklumat daripada input — termasuk maklumat peribadi — untuk berpotensi melatih modelnya (mengikut Dasar Privasi). Pengguna boleh menarik diri. Keadaan berubah jika data dihantar melalui sambungan API (ChatGPT Enterprise, Team, dll); itu kerana ChatGPT tidak menggunakan input daripada pelanggan perniagaan untuk melatih model. ChatGPT mempunyai langkah keselamatan, tetapi tidak secara jelas menangani tanggungjawab untuk pelanggaran keselamatan. Semuanya bergantung kepada undang-undang wilayah. 

Penggunaan

Pengguna ChatGPT memiliki kandungan input dan output mereka; pengguna, oleh itu, mesti memastikan kandungan tidak melanggar mana-mana undang-undang. Pengguna tidak boleh mendakwa kandungan itu dijana manusia, tetapi anda tidak perlu mengatakan ia juga dijana AI. Selagi pengguna mematuhi undang-undang serantau dan Syarat Penggunaan, kandungan ChatGPT boleh digunakan untuk tujuan komersial, di media sosial, untuk pengiklanan berbayar dan saluran lain. Anda dinasihatkan untuk menyemak fakta, membuat rujukan dan mematuhi undang-undang sebelum menerbitkan kandungan daripada ChatGPT. 

Polisi Privasi mahupun Syarat tidak menyatakan sama ada alat AI DeepSeek telah dilatih mengenai bahan berhak cipta. Lebih-lebih lagi, mereka juga tidak memberikan jaminan bahawa output tidak akan melanggar hak cipta sesiapa. Syarat Penggunaan DeepSeek menyatakan bahawa pengguna mengekalkan hak ke atas input mereka (gesaan), tetapi ini tidak semestinya membayangkan bahawa mereka dilindungi hak cipta pada mulanya, jadi pengguna harus mengambil langkah untuk memastikan bahawa apa yang mereka gunakan sebagai gesaan bukanlah harta intelek orang lain.

Terma juga secara jelas menyatakan bahawa pengguna bertanggungjawab untuk semua input dan output yang sepadan, jadi dengan mengambil kira itu, pengguna harus mengesahkan ini secara bebas dengan mendapatkan nasihat undang-undang dan/atau menggunakan pangkalan data hak cipta. Sebagai contoh, yang Katalog Awam Pejabat Hak Cipta AS membolehkan pengguna mencari karya berdaftar di AS, manakala Carian Imej Songsang Google membantu menyemak sama ada imej telah diterbitkan atau dilindungi hak cipta sebelum ini.

Ketepatan dan kebolehpercayaan

Syarat Penggunaan DeepSeek mengatakan bahawa output dijana AI, dan oleh itu mungkin mengandungi ralat dan/atau ketinggalan. Ia secara khusus merujuk kepada isu perubatan, undang-undang dan kewangan yang pengguna mungkin bertanya tentang DeepSeek, dan bagaimana output DeepSeek tidak membentuk nasihat. Tetapi secara lebih luas, ia mengatakan perkara yang sama tentang 'isu profesional', yang boleh jadi apa sahaja — daripada pemasaran dan penyelidikan kepada teknologi dan pendidikan dan seterusnya — dan output itu tidak 'mewakili pendapat daripada mana-mana bidang profesional.' Oleh itu, pengguna harus mengesahkan secara bebas semua output DeepSeek untuk ketepatan.

Keselamatan dan kerahsiaan

Dasar Privasi DeepSeek menerangkan bahawa input pengguna diproses untuk menjana output, tetapi juga untuk meningkatkan perkhidmatan DeepSeek. Ini termasuk 'melatih dan meningkatkan teknologi [mereka]'. Oleh itu, pengguna harus berhati-hati tentang memasukkan maklumat sensitif, dan walaupun DeepSeek mempunyai 'munasabah secara komersial' langkah-langkah untuk melindungi data dan maklumat yang digunakan sebagai input, ia tidak memberikan sebarang jaminan mutlak. Syarat DeepSeek menyatakan bahawa mereka tidak menerbitkan input atau output dalam forum awam, tetapi sesetengah mungkin dikongsi dengan pihak ketiga.

Penggunaan

Sebarang kandungan yang pengguna jana melalui DeepSeek boleh digunakan untuk tujuan komersial, tetapi disebabkan kawasan kelabu di sekitar plagiarisme dan ketepatan, pengguna harus mengambil langkah untuk mengesahkan kandungan sebelum menggunakannya dengan cara ini. Syarat Perkhidmatan DeepSeek tidak merujuk sebarang had mengenai tempat di dunia pengguna boleh menerbitkan kandungan ini, tetapi mereka dengan jelas menyatakan bahawa pengguna mesti mengisytiharkannya sebagai dijana AI 'untuk memaklumkan orang ramai tentang sifat sintetik kandungan'.

Canva tidak dikehendaki secara sah untuk mendedahkan sumbernya untuk data latihan. Oleh itu, kami tidak tahu sama ada bahan berhak cipta digunakan. Pengguna memiliki semua kandungan input dan output (bukan Canva), tetapi Canva boleh menggunakan kandungan itu untuk menambah baik perkhidmatannya. 

Ketepatan dan kebolehpercayaan

Canva bear tiada tanggungjawab untuk ketepatan kandungan. Pengguna hendaklah sentiasa mengesahkan fakta. 

Keselamatan dan kerahsiaan

Canva menggunakan kandungan input untuk melatih modelnya. Ia adalah tanggungjawab pengguna untuk mengelak daripada menggunakan maklumat sulit atau peribadi untuk input. Canva cuba menapis input sedemikian untuk latihan model, tetapi tiada jaminan. Alat AI Canva tidak bertanggungjawab terhadap isu keselamatan yang disebabkan oleh pengguna.

Penggunaan

Pengguna Canva boleh menggunakan kandungan yang dihasilkan untuk tujuan komersial. ada syarat, walaupun, seperti tidak menerbitkan kandungan yang mengelirukan. Syarikat itu mempunyai a senarai barang terlarang, di bawah bahagian bertajuk "Jadilah Manusia yang Baik."

Sama seperti ChatGPT, DALL-E tidak mengisytiharkan sumber untuk latihan modelnya. Jika, walau bagaimanapun, anda menjumpai kandungan berhak cipta, anda boleh mengemukakan tuntutan untuk dialih keluar. Sukar untuk menyemak sama ada DALL-E melanggar hak cipta kerana tiada undang-undang memerlukan DALL-E untuk mendedahkan sumber datanya. Input pengguna, mengikut Syarat, boleh digunakan untuk melatih model DALL-E — walaupun ia kandungan berhak cipta. Pengguna boleh menarik diri daripada ini.  

SLAB pengguna memiliki kandungan input dan output (bukan DALL-E), tetapi itu tidak bermakna pengguna mempunyai hak cipta pada kandungan tersebut. Juga, pengguna tidak boleh mendakwa kandungan DALL-E dihasilkan oleh manusia.

Ketepatan dan kebolehpercayaan

DALL-E menanggung tiada tanggungjawab untuk kandungan yang tidak tepat. Syaratnya menyerahkan semua liabiliti kepada pengguna. Liabiliti ini termasuk kebolehpercayaan kandungan, ketepatan, kualiti, keselamatan dan kesempurnaan. Jadi, sebelum diterbitkan, pengguna hendaklah sentiasa merujuk silang, menyemak kemas kini, mengesahkan fakta dan menyemak dengan pakar, memandangkan penerbitan maklumat palsu boleh membawa kepada kesan reputasi atau undang-undang. 

Keselamatan dan kerahsiaan

Dasar Privasi serta Terma dan Syarat daripada DALL-E tidak pernah secara eksplisit menangani tanggungjawab sekiranya berlaku pelanggaran keselamatan. Walau bagaimanapun, DALL-E mempunyai langkah keselamatan. Siapa yang memikul tanggungjawab sekiranya berlaku penggodaman bergantung pada undang-undang serantau.

DALL-E mengumpul input pengguna untuk latihan model, malah maklumat peribadi, tetapi anda boleh menarik diri daripada ini. Dengan API, walau bagaimanapun, DALL-E mengendalikan data input secara berbeza; ia tidak menggunakan data daripada pengguna perniagaan untuk melatih modelnya

Penggunaan

. pengguna memiliki kandungan input dan output DALL-E; mereka juga mesti memastikan bahawa kandungan tidak melanggar mana-mana undang-undang atau Syarat DALL-E. Anda tidak boleh menuntut kandungan daripada DALL-E adalah buatan manusia, tetapi anda juga tidak perlu mengatakan ia dijana AI. 

Anda boleh menggunakan DALL-E untuk tujuan komersial, selagi anda mematuhi semua undang-undang dan Terma DALL-E. Peraturan mungkin berubah, tetapi pada masa penulisan, pengguna dialu-alukan untuk menerbitkan kandungan DALL-E di media sosial, dalam iklan dan saluran lain. Pengguna hendaklah sentiasa membuat rujukan yang betul dan ketepatan semakan fakta untuk mengelak daripada melanggar mana-mana undang-undang.

Bing tidak mempunyai kewajipan untuk berkongsi sumber latihan datanya, menjadikannya sangat sukar untuk mengetahui sama ada Bing AI secara tidak sengaja menggunakan kandungan berhak cipta. Walaupun sukar untuk dikenal pasti, pengguna boleh membuat tuntutan ke atas kandungan berhak cipta. Perjanjian Perkhidmatan Microsoft mengatakan Bing AI mengambil input dan output pengguna untuk menambah baik modelnya, tetapi tiada apa-apa yang formal untuk mencegah kecurian harta intelek.

. Perjanjian Perkhidmatan mengatakan pengguna memberikan Microsoft lesen harta intelek di seluruh dunia dan bebas royalti untuk menggunakan kandungan anda. Tambahan pula, Bing/Microsoft mengambil input pengguna untuk melatih model AI.

Ketepatan dan kebolehpercayaan

Microsoft tidak menawarkan jaminan untuk ketepatan atau ketepatan masa kandungan daripada perkhidmatan AInya. Oleh itu, anda harus menyemak fakta segala-galanya daripada alatan AI Microsoft, terutamanya jika anda seorang pemilik perniagaan yang ingin mengelakkan sebarang akibat reputasi dan undang-undang. 

Keselamatan dan kerahsiaan

Alat AI Microsoft (termasuk AI Bing) menggunakan data pengguna peribadi dan sulit untuk melatih modelnya. Perjanjian Perkhidmatannya tidak meliputi kandungan yang dijana AI; sebaliknya, ia cuba mengalihkan semua tanggungjawab kandungan AI kepada pengguna. Microsoft juga tidak bertanggungjawab untuk privasi dan amalan keselamatan pelanggannya. Ringkasnya, jika data anda dilanggar semasa menggunakan Bing AI, itu adalah masalah anda, bukan Microsoft.  

Penggunaan

Microsoft tidak menuntut pemilikan kandungan pengguna, tetapi ia tidak mengawal selia kandungan yang dijana AI secara khusus, di mana pemilikan tidak pasti. Perjanjian Perkhidmatan membenarkan orang ramai menggunakan kandungan untuk tujuan komersial, dengan beberapa ketetapan penting: anda mesti menerima bahawa kandungan yang dijana AI tidak mempunyai kreativiti manusia, jadi ia tidak boleh dituntut sebagai harta intelek; anda juga tidak boleh melanggar hak harta intelek orang lain. Ringkasnya, anda tidak boleh menggunakan harta intelek daripada orang lain, tetapi apa sahaja yang anda buat dengan Bing mungkin bukan harta intelek anda sendiri.

Quillbot telah tiada kewajipan untuk mendedahkan sumber yang digunakan untuk melatih model. Walau bagaimanapun, syarikat itu secara menarik cuba mengawal satu situasi unik: bagaimana jika sumber latihan model adalah keluaran AI? Quillbot pada dasarnya cuba untuk meminimumkan potensi output berhak cipta, tetapi menyatakan masih ada kemungkinan output berhak cipta jika pengguna memasukkan kandungan berhak cipta. Untuk menjadikan perkara lebih mengelirukan, Quillbot cuba merangkumi semua kawasan dengan mengatakan pengguna memberikan Quillbot lesen tanpa had, sub-lesen sambil turut mendakwa pengguna memiliki semua output mereka. 

Ketepatan dan kebolehpercayaan

Quillbot beruang tiada tanggungjawab untuk ketepatan atau kebolehpercayaan. Pengguna harus sangat berhati-hati dan mengesahkan semua fakta daripada Quillbot. 

Keselamatan dan kerahsiaan

Quillbot telah langkah untuk melindungi privasi pengguna, tetapi ia mungkin masih akan memproses data peribadi. Terdapat perlindungan khas untuk privasi kanak-kanak. Tanggungjawab untuk kehilangan data daripada penggodaman dikendalikan berdasarkan kes demi kes. Quillbot menyatakan pengguna harus mengambil langkah untuk menghalang data peribadi mereka daripada digodam, dan Quillbot mempunyai elemen perlindungan data yang sedia ada. 

Penggunaan

Pengguna Quillbot boleh menerbitkan kandungan yang dijana untuk tujuan komersial, tetapi anda mungkin perlu mematuhi beberapa peraturan, seperti tidak menerbitkan kandungan yang berbahaya atau mengelirukan. Quillbot's Syarat-syarat jangan katakan bahawa anda perlu mengisytiharkan kandungannya dijana AI. Pendek kata, the pengguna boleh menerbitkan kandungan yang dihasilkan oleh Quillbot selagi ia tidak melanggar mana-mana undang-undang atau hak. 

Pixlr tidak mendedahkan sumbernya untuk latihan model AI, kerana tiada kewajipan undang-undang untuk mereka berbuat demikian. Syaratnya menyatakan pengguna memiliki kandungan, tetapi pengguna juga berikan lesen kepada Pixlr untuk menggunakan kandungan tersebut. Ini adalah percubaan untuk meminimumkan penggunaan kandungan berhak cipta. 

Ketepatan dan kebolehpercayaan

Pixlr tidak bertanggungjawab untuk ketidaktepatan dalam kandungan yang dijana AInya. Pengguna harus berhati-hati untuk menyemak fakta segala-galanya daripada Pixlr. 

Keselamatan dan kerahsiaan

Pixlr mengambil input pengguna untuk latihan model AI. Ia memberikan beban kepada pengguna untuk berhati-hati dalam memasukkan maklumat peribadi atau sulit. Pixlr mengetepikan tanggungjawabnya untuk menapis beberapa maklumat daripada data latihannya, walaupun ia menggunakan beberapa penapis untuk menyekat maklumat peribadi atau sulit. Tuntutan Pixlr tiada liabiliti untuk isu keselamatan yang disebabkan oleh tindakan pengguna

Penggunaan

Pengguna boleh menerbitkan kandungan jana AI yang dibuat melalui Pixlr untuk tujuan komersial (walaupun beberapa syarat dikenakan). Terma tidak memerlukan anda menyatakan apa-apa adalah dijana AI. Pengguna masih bertanggungjawab kerana melanggar hak atau undang-undang, walaupun. 

Pertengahan perjalanan pengguna memberikan hak syarikat kepada semua aset yang dibuat melaluinya, tetapi pengguna juga memiliki semua aset. Terdapat pengecualian, seperti bagaimana anda tidak boleh menuntut pemilikan jika anda baru sahaja meningkatkan imej daripada pencipta asal.

Ketepatan dan kebolehpercayaan

Midjourney tidak bertanggungjawab untuk kebolehpercayaan dan ketepatan kandungannya. Oleh itu, pengguna harus lebih berhati-hati untuk mengesahkan fakta dan menyemak kebolehpercayaan. 

Keselamatan dan kerahsiaan

Midjourney melatih modelnya dengan input pengguna, walaupun ia termasuk data peribadi atau sulit. Midjourney mendakwa pengguna harus berhati-hati dengan data sensitif, jadi itu bukan masalah mereka. Syarikat cuba menapis maklumat tertentu untuk latihan model, tetapi ia tidak diperlukan. Midjourney tidak bertanggungjawab untuk isu keselamatan yang mungkin berlaku daripada tindakan pengguna. 

Penggunaan

Pengguna midjourney boleh menerbitkan kandungan yang dijana untuk tujuan komersial. Beberapa syarat, seperti keperluan untuk melanggan versi Pro jika syarikat memperoleh lebih daripada $1 juta setahun, memohon. Pada masa penulisan, pengguna tidak perlu menuntut apa-apa yang dijana AI daripada Midjourney, walaupun undang-undang sedang bergerak untuk mengubahnya. Pengguna biasanya boleh menggunakan mana-mana kandungan Modjourney jika ia tidak melanggar mana-mana hak atau undang-undang. 

Clipchamp ialah produk Microsoft, jadi ia tidak bertanggungjawab untuk berkongsi sumber data untuk latihan model. Oleh itu, sukar untuk mengetahui sama ada alat AI secara tidak sengaja menggunakan data berhak cipta. Seseorang mesti mengenal pasti pelanggaran hak cipta untuk membuat tuntutan, yang tidak mungkin. Perjanjian Perkhidmatan Microsoft berkata ia boleh menggunakan input dan output pengguna untuk menambah baik perkhidmatan, dan Microsoft tidak mengawal hal ehwal harta intelek. Juga, pengguna memberikan lesen harta intelek bebas royalti di seluruh dunia kepada Microsoft

Ketepatan dan kebolehpercayaan

Clipchamp dan Microsoft tidak menjamin apa-apa dari segi ketepatan atau ketepatan masa alatan AInya, jadi pengguna harus mengesahkan semua fakta sebelum diterbitkan. Ini adalah benar terutamanya bagi pemilik perniagaan yang mungkin menghadapi akibat undang-undang dan reputasi. 

Keselamatan dan kerahsiaan

Clipchamp dan Microsoft gunakan data peribadi dan sulit untuk latihan model. Microsoft cuba mengalihkan tanggungjawab untuk semua isu kandungan kepada pengguna. Perkara yang sama berlaku untuk penggodaman dan pelanggaran keselamatan; ia adalah tanggungjawab pengguna jika apa-apa berlaku. 

Penggunaan

Clipchamp dan Microsoft menjauhkan diri daripada mengawal selia kandungan yang dijana AI, tidak pernah mendakwa bahawa Microsoft memiliki kandungan tersebut. Secara teknikalnya, Microsoft mengatakan pengguna memilikinya tetapi tanpa hak harta intelek. Pengguna boleh menerbitkan kandungan Clipchamp untuk tujuan komersial dengan dua ketetapan: anda tidak boleh melanggar hak harta intelek atau mendakwa anda mempunyai hak harta intelek untuk kandungan yang dijana. 

The Looka Syarat-syarat nyatakan syarikat tidak mempunyai kewajipan untuk berkongsi sumber latihan data, jadi mereka tidak. Pengguna menanggung semua risiko apabila menggunakan kandungan yang dihasilkan oleh Looka. 

Ketepatan dan kebolehpercayaan

Looka tidak bertanggungjawab untuk ketepatan dan kebolehpercayaan output daripada alatan AInya. Pengguna harus mengesahkan semua fakta dan semak kebolehpercayaan. 

Keselamatan dan kerahsiaan

Looka menggunakan data input — malah berpotensi data peribadi dan sulit — untuk melatih modelnya, jadi pengguna bertanggungjawab untuk tidak menggunakan data jenis ini dalam input mereka. Looka cuba menapis data sedemikian, tetapi mereka mendakwa mereka tidak perlu melakukannya. Selain itu, semua isu keselamatan adalah beban pengguna. 

Penggunaan

Pengguna Looka mungkin menggunakan kandungan yang dijana AI untuk tujuan komersial, tetapi mereka mungkin perlu mengikut syarat atau bayar yuran. Pengguna tidak perlu melabelkan kandungan yang dijana mereka sebagai dijana AI. Pengguna harus mengelak daripada menerbitkan kandungan yang dijana yang melanggar hak atau undang-undang. 

Tidak mungkin untuk mengetahui sama ada Speechify melatih modelnya pada bahan berhak cipta. Kami hanya tidak tahu. Syarat Speechify mengesyorkan agar tidak menggunakan bahan berhak cipta untuk input, yang menunjukkan bahawa sesetengah output mungkin mempunyai data berhak cipta. Bertutur mendakwa tidak bertanggungjawab untuk ini

Ketepatan dan kebolehpercayaan

Ucapkan, mengikutnya Syarat-syarat, tidak bertanggungjawab terhadap ketepatan outputnya. Pengguna hendaklah sentiasa menyemak ketepatan masa, kebolehpercayaan dan ketepatan dengan Speechify. 

Keselamatan dan kerahsiaan

Ucapkan ucapan menyerahkan semua tanggungjawab kepada pengguna apabila ia datang untuk memasukkan data sensitif atau peribadi. Alat ini menggunakan input untuk melatih model, jadi pengguna harus berhati-hati. Speechify tidak semestinya perlu menapis data sensitif atau peribadi, tetapi ia cuba menggunakan beberapa penapis. Semua tanggungjawab untuk isu keselamatan diserahkan kepada pengguna. 

Penggunaan

Pengguna Speechify boleh gunakan output untuk tujuan komersial, dengan beberapa syarat seperti perlu melanggan atau mendapatkan pelesenan. Pengguna tidak perlu mengisytiharkan bahawa kandungan Speechify adalah dijana AI. Walau bagaimanapun, pengguna Speechify tidak boleh melanggar hak atau undang-undang apabila menerbitkan output Speechify. 

Kapwing Terma meletakkan semua harta intelek dan tanggungjawab ketepatan pada pengguna. Semua pengguna memberikan Kapwing lesen bukan eksklusif, tetapi pengguna mengekalkan pemilikan kandungan. Kapwing tidak mendedahkan apa-apa tentang sama ada ia menggunakan data input untuk latihan model. 

Ketepatan dan kebolehpercayaan

Kapwing meletakkan semua tanggungjawab ketepatan kepada pengguna, terutamanya sebarang akibat undang-undang dan reputasi.

Keselamatan dan kerahsiaan

Pengguna Kapwing mengambil semua risiko apabila memilih untuk memasukkan maklumat sulit ke dalam alat AInya. Ia juga tidak menawarkan jaminan atau tanggungjawab ke atas keselamatan perkhidmatan.

Penggunaan

Anda boleh menerbitkan kandungan Kapwing secara komersil, tetapi Kapwing menasihatkan pengguna supaya berhati-hati. Syarat mereka tidak menyatakan sama ada pengguna mesti mengisytiharkan output daripada Kapwing adalah dijana AI atau tidak.

Otter.ai menyatakan ia tidak membenarkan bahan yang melanggar hak cipta dalam perkhidmatannya, tetapi sukar untuk mengesahkan tuntutan ini. Pengguna mengekalkan pemilikan dan hak cipta input dan siaran dalam Otter.ai, tetapi Otter.ai berkata pengguna bertanggungjawab khususnya tidak memasukkan kandungan berhak cipta sebelum ini. Otter.ai mungkin juga menggunakan input untuk pembelajaran mesin.

Ketepatan dan kebolehpercayaan

Otter.ai mengecualikan dirinya daripada tanggungjawab mengenai ketepatan dan kebolehpercayaan, jadi pengguna harus sentiasa mengesahkan kandungan. Menggunakan maklumat yang mengelirukan atau salah fakta boleh menyebabkan isu undang-undang atau reputasi bagi pengguna. 

Keselamatan dan kerahsiaan

Semua risiko mendedahkan maklumat sulit pada Otter.ai kepunyaan pengguna. 

Penggunaan

Pengguna boleh menerbitkan dengan tujuan komersial kerana pengguna adalah pemilik kandungan daripada Otter.ai. Yang berkata, kandungan yang dijana AI tidak mempunyai peraturan pemilikan yang jelas. Otter.ai juga menyatakan nota transkripsinya boleh dicari dan dikongsi.

PhotoRoom boleh mengambil input dan output pengguna untuk latihan model, tetapi terdapat maklumat terhad sama ada perkhidmatan itu melakukan perkara itu atau tidak. Syarat PhotoRoom mengingatkan pengguna untuk mengelakkan suapan dalam kandungan berhak cipta. Pengguna memikul semua tanggungjawab untuk ini. 

Ketepatan dan kebolehpercayaan

Bilik Foto tidak bertanggungjawab ke atas ketepatan atau kebolehpercayaan kandungan yang dijana AInya. Pengguna harus menjalankan semakan mereka sendiri untuk mengesahkan ini.

Keselamatan dan kerahsiaan

PhotoRoom menggunakan input untuk melatih modelnya. Pengguna bertanggungjawab apabila memasukkan rahsia or maklumat peribadi. Perkhidmatan cuba menapis jenis input ini tetapi tidak menuntut sebarang keperluan untuk berbuat demikian. Pengguna memikul semua tanggungjawab untuk isu keselamatan. 

Penggunaan

Kandungan PhotoRoom boleh digunakan untuk tujuan komersial, tetapi beberapa syarat mungkin dikenakan, seperti mendaftar untuk langganan. Syarat menyatakan anda tidak perlu menandakan kandungan sebagai dijana AI. Pengguna mungkin melihat kesan lain jika mereka melanggar hak atau undang-undang. 

Penafian

Maklumat ini adalah untuk tujuan maklumat am sahaja dan tidak boleh dianggap sebagai nasihat undang-undang. Platform E-dagang tidak bertanggungjawab atas kesilapan atau ketinggalan. Rujuk profesional undang-undang yang sesuai untuk mendapatkan nasihat dan bimbingan yang disesuaikan dengan keperluan dan keadaan khusus anda.

Kesimpulan

Kewujudan AI di mana-mana menjadikan kita semua semakin berkemungkinan menggunakan alatan dan apl berdasarkan teknologi ini — namun ramai di antara kita tidak mempunyai masa yang diperlukan untuk membaca terma dan syarat mereka. 

Pada 2017, rangkaian perkhidmatan profesional Deloitte mendapati bahawa 91% pengguna “dengan rela menerima terma dan syarat undang-undang tanpa membacanya” — meningkat kepada 97% antara umur 18 hingga 34 tahun.

Memandangkan bilangan T&S AI yang kami nilaikan dengan skor kebolehbacaan yang rendah, nampaknya begitu ketidakbolehtembusan undang-undang dokumen ini menghalang pengguna daripada cuba memahaminya. 

Kami bekerjasama dengan profesional undang-undang untuk menghuraikan dokumen untuk kami, tetapi boleh dipersoalkan sama ada ini perlu.

Kami berharap penyelidikan ini — termasuk penilaian kebolehbacaannya, dan kepakaran Josilda Ndreaj tentang terma dan syarat yang perlu diberi perhatian — akan membantu membimbing pilihan anda untuk menggunakan apl dan alatan AI. 

Metodologi dan Sumber

Bagaimana kami menjalankan penyelidikan

Bermula dengan senarai benih sekitar 90 alat dan apl AI, kami mula-mula mengumpulkan setiap dokumentasi undang-undang alat, daripada terma dan syarat kepada dasar privasi. Kami kemudian merekodkan panjang perkataan dokumen ini, dan mengira skor kebolehbacaannya menggunakan sistem penggredan Flesch-Kincaid. Seterusnya, kami meminta bantuan pakar undang-undang, Josilda Ndreaj (LLM), yang menyemak pilihan dokumen undang-undang ini dan mengenal pasti perkara utama yang perlu diketahui oleh pengguna.

Untuk kira-kira 30 alat AI yang mempunyai versi aplikasi mudah alih tersedia, kami mencari setiap satu di Apple App Store dan merekodkan label privasi mereka yang ditunjukkan pada penyenaraian mereka. Ini dibahagikan kepada 14 kategori data yang boleh dikumpul daripada pengguna, dan untuk tujuan apa. Untuk mengira apl AI yang mengumpul data paling banyak, kami mengukur bilangan daripada 14 kategori yang mungkin apl ini menjejaki pengguna mereka. 

Adalah penting untuk ambil perhatian bahawa 14 kategori ini dibahagikan lagi kepada titik data individu. Sebagai contoh, 'Maklumat Hubungan' merangkumi lima titik data, iaitu; 'Nama', 'Alamat E-mel', 'Nombor Telefon', 'Alamat Fizikal' dan 'Maklumat Hubungan Pengguna Lain'. Untuk mengetahui apl yang mengumpul mata data individu paling banyak, lihat lajur terakhir dalam setiap jadual.

Sesetengah apl akan mengumpulkan lebih banyak mata data individu berbanding apl yang muncul lebih tinggi dalam kedudukan. Ini kerana metodologi kedudukan kami mempertimbangkan aplikasi mana yang mengumpul data merentas kebanyakan kategori secara keseluruhan, mencadangkan gambaran data pengguna yang lebih luas dan oleh itu lebih 'lengkap', dan bukannya kedalaman maklumat yang mereka kumpulkan dalam setiap kategori. 

Sumber

Permintaan pembetulan

Kami mengemas kini penyelidikan ini secara berkala.

Jika anda pemilik mana-mana alatan AI yang disertakan dalam penyelidikan ini dan anda ingin mencabar maklumat di halaman ini, kami bersedia untuk mengemas kininya tertakluk pada semakan kami terhadap bukti yang anda berikan. Apabila menghubungi kami dalam hal ini, kami mohon: 

  • dokumen perniagaan yang mengesahkan kesahihan anda (contohnya, sijil pemerbadanan atau dokumen pendaftaran) 
  • maklumat di halaman ini yang anda percaya sudah lapuk (sila nyatakan)
  • bagaimana ia perlu dikemas kini dan sebabnya, dengan pautan ke dokumentasi yang menyokongnya (contohnya, pindaan kepada Syarat Perkhidmatan)

Sila hubungi kami di [e-mel dilindungi] dengan baris subjek: 'Permintaan pembetulan: Kajian alatan AI', serta nama alat AI yang anda hubungi kami.

Bogdan Rancea

Bogdan Rancea ialah pengasas bersama Ecommerce-Platforms.com dan kurator utama ecomm.design, pameran tapak web e-dagang terbaik. Dengan lebih 12 tahun dalam ruang perdagangan digital, beliau mempunyai banyak pengetahuan dan minat yang mendalam untuk pengalaman runcit dalam talian yang hebat. Sebagai peneroka teknologi e-dagang, Bogdan menguji dan menyemak pelbagai platform dan alatan reka bentuk seperti Shopify, Figma dan Canva serta menyediakan nasihat praktikal untuk pemilik dan pereka kedai.