Por trás das letras miúdas: Compreendendo aplicativos de IA e privacidade

Se você assinar um serviço de um link nesta página, a Reeves and Sons Limited pode ganhar uma comissão. Veja nosso Declaração de ética.

A inteligência artificial rapidamente se tornou parte do zeitgeist contemporâneo — mas as considerações éticas em torno do assunto permanecem sem solução. Quantos usuários estão totalmente cientes do que estão assinando?

Aqui, ao se concentrar nos termos e condições e políticas de privacidade por trás das ferramentas e aplicativos de IA mais populares, as Plataformas de Comércio Eletrônico revelam o que você precisa saber ao usar essas ferramentas para suas necessidades comerciais diárias.

Analisamos os dados e informações pessoais que essas ferramentas coletam (e para qual finalidade) para ajudar você a determinar quais Ferramentas AI, software e plataformas são os mais adequados para o uso pretendido. Também consultamos um especialista jurídico para destrinchar o jargão por trás dos termos e condições dessas ferramentas.

Analisamos os rótulos de privacidade da Apple App Store para cerca de 30 versões de aplicativos móveis disponíveis de ferramentas populares de IA para entender quais coletam seus dados e por quê. 

Os dados coletados dos usuários (e sua finalidade) são divididos em 14 categorias, possibilitando estabelecer quais aplicativos coletam e rastreiam mais dados dos usuários.

Para mais detalhes, consulte a seção de metodologia no final desta página.

Quais dados esses aplicativos de IA coletam?

As ferramentas de IA avaliadas nesta pesquisa coletam dados de vários tipos. Alguns deles se concentram em detalhes pessoais sobre os usuários — desde nomes de tela e detalhes bancários até sua saúde e condicionamento físico, e até mesmo informações confidenciais, como raça/etnia, orientação sexual, identidade de gênero e opiniões políticas. 

Outros se relacionam com o conteúdo criado pelos usuários (como e-mails e mensagens, fotos, vídeos e gravações de som), ou como os usuários interagem com o produto em si, como seus históricos de pesquisa no aplicativo ou quais anúncios eles viram. Mais impessoais ainda são as informações de diagnóstico coletadas para mostrar dados de falhas ou uso de energia.

Por que esses aplicativos de IA coletam dados?

Tem diferentes razões pelas quais os aplicativos coletam dados, algumas das quais podem ser vistas como mais justificáveis ​​do que outras — por exemplo, dados biométricos ou informações de contato podem ser usados ​​para autenticar a identidade do usuário.

Da mesma forma, o acesso a determinados dados pode ser necessário para que um aplicativo funcione corretamente, inclusive para evitar fraudes ou melhorar a escalabilidade e o desempenho.

Mais especificamente, aplicativos de mensagens precisam de acesso a contatos, câmeras de telefone e microfones para permitir chamadas, enquanto a geolocalização é necessária para aplicativos de táxi ou entrega.

Razões menos essenciais para coletar dados incluem publicidade ou marketing pelo desenvolvedor do aplicativo (por exemplo, para enviar comunicações de marketing aos seus usuários); habilitar publicidade de terceiros (rastreando dados de outros aplicativos para direcionar anúncios segmentados ao usuário, por exemplo); e analisar o comportamento do usuário para fins que incluem avaliar a eficácia de recursos existentes ou planejar novos.

Aplicativos de IA que coletam seus dados para compartilhar com anunciantes terceirizados

Cabeçalhos de coluna com botões são classificáveis.
aplicativo de IA % dados compartilhados com outros histórico de navegação Informações de contato Identificadores Localização Outros dados compras História de busca Dados de Uso Nº de pontos de dados coletados
canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Assistente Google 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
útero 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Lensa 7% 1 1
Discursar 7% 1 1
starryai 7% 1 1

De todos os aplicativos de IA incluídos em nossa pesquisa, O Canva, uma ferramenta de design gráfico, coleta a maioria dos dados de seus usuários para fins de publicidade de terceiros — cerca de 36%. Em contraste, os cinco aplicativos que coletam menos dados para esse propósito reúnem pouco mais de 7%.

Os dados que o aplicativo Canva coleta de você e compartilha com terceiros incluem seu histórico de pesquisa, localização, endereço de e-mail e outras informações mostradas na tabela acima. 

Seguindo de perto o Canva está o aplicativo gamificado de aprendizagem de idiomas Duolingo (~36%), Assistente Google (~21%), e Bing da Microsoft (~14%) — tudo isso também compartilhe seus dados com terceiros

Dos cinco aplicativos que coletam menos dados, apenas estrelado (um gerador de imagens) limita-se a compartilhar apenas dados de uso.

Aplicativos de IA que coletam seus dados para seu próprio benefício

Cabeçalhos de coluna com botões são classificáveis.
App % de dados coletados para benefício próprio do aplicativo histórico de navegação Informações de contato Identificadores Localização compras História de busca Dados de Uso Nº de pontos de dados coletados
canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Assistente Google 36% 1 2 2 1 2 8
sala de fotos 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
starryai 14% 2 1 3
Bing 14% 1 1 2
Lensa 14% 1 1 2
Lontra 7% 2 2
Comer 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Discursar 7% 1 1
útero 7% 1 1

O Canva também lidera a lista de aplicativos de IA que coletam dados do usuário para seus próprios fins de publicidade ou marketing. Para isso, o Canva coleta cerca de 43% dos dados dos seus usuários.

Em terceiro lugar, Amazon Alexa coleta 36% dos seus dados para o mesmo propósito. Isso inclui seu endereço de e-mail, endereço físico, número de telefone, histórico de pesquisa e histórico de compras, além de cinco outros pontos de dados. Assistente Google coleta e compartilha a mesma porcentagem de dados por esse motivo, embora em oito pontos de dados individuais, em comparação com os dez que a Amazon Alexa coleta.

A O gerador de voz de texto para fala, Speechify, está entre os aplicativos que coletam menos dados. De acordo com os rótulos de privacidade da listagem da Apple App Store, a Speechify coleta apenas um ponto de dados para seu próprio benefício; o ID do seu dispositivo.

Aplicativos de IA que coletam seus dados para qualquer finalidade

Cabeçalhos de coluna com botões são classificáveis.
App % dados coletados histórico de navegação Informações de contato Contactos Diagnóstico Informação Financeira Saúde e Fitness Identificadores Localização Outros dados compras História de busca Informação Sensível Dados de Uso Conteúdo do usuário Nº de pontos de dados coletados
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Assistente Google 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
canva 64% 11 3 1 8 5 4 5 10 6 53
Lontra 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
Fala ELSA 43% 2 6 6 3 3 3 23
sala de fotos 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Perplexidade IA 36% 6 6 2 1 6 21
1 / 2

Todos os modelos de IA requerem alguma forma de treinamento por meio de aprendizado de máquina — o que significa que eles precisam de dados.

Se quisermos que as ferramentas de IA melhorem e se tornem mais úteis, nossa privacidade pode ser vista como uma compensação necessária ao fornecimento desses dados.

No entanto, a questão de onde a linha entre utilidade e exploração deve ser desenhado, e por que, é uma questão espinhosa.

Dada a sua notoriedade atual, vale a pena abordar o DeepSeek. Sua listagem na Apple App Store afirma que o DeepSeek não coleta dados do usuário para seu próprio benefício (por exemplo, marketing e publicidade do próprio DeepSeek) ou para compartilhar com terceiros.

Mas vale ressaltar que deles A Política de Privacidade declara o contrário (mais sobre isso mais tarde). 

A O próprio aplicativo DeepSeek coleta 50% dos dados de seus usuários, que atende a funcionalidade de análise e aplicativo do DeepSeek. Para efeito de comparação, o O aplicativo ChatGPT arrecada 36%.

Alguns meios de comunicação relatam preocupações sobre riscos de segurança relacionados às origens chinesas do DeepSeek (tanto em termos de coleta de dados quanto da possível disseminação de desinformação) e o enfraquecimento de rivais dos EUA. É improvável que ambos sejam aliviados por Termos e Condições e Política de Privacidade do DeepSeek, o que levaria cerca de 35 minutos para ler, e são classificados como "muito difícil" na escala de legibilidade de Flesch-Kincaid.

Independentemente de como seus dados são usados, Amazon Alexa coleta mais dados de seus usuários do que qualquer outro aplicativo de IA incluídos nesta pesquisa. No geral, ele coleta 93% dos seus dados (ou 116 métricas individuais, principalmente informações de contato, conteúdo do usuário e dados de uso).

Assistente Google vem a seguir, coletando 86%, Seguido por Duolingo, que coleta 79%.

No outro extremo da escala, O gerador de imagens de IA, Stable Diffusion, não coleta nenhum dado. Isso está de acordo com os rótulos de privacidade na listagem da Apple App Store.

Embora seja verdade que todos IA generativa modelos exigem quantidades massivas de dados para serem treinados, esse treinamento acontece antes do desenvolvimento de aplicativos específicos. Na maioria dos casos, os criadores de aplicativos não são donos dos modelos de IA que usam; a coleta de dados do usuário, portanto, está relacionada à funcionalidade do aplicativo em si. Isso pode explicar por que alguns dos aplicativos que investigamos não têm informações na tabela acima.

Navegando pelos termos e condições por trás das ferramentas de IA

Agora, vamos ver o documentação legal por trás de diferentes ferramentas de IA para descobrir quão fáceis ou difíceis são de ler. Isto é baseado no teste de nível de leitura Flesch-Kincaid.

Este sistema equipara textos aos níveis de leitura escolar dos EUA (do quinto ao décimo segundo ano), depois College, College Graduate e Professional. Textos de nível de sexto ano são definidos como “inglês conversacional para consumidores”, enquanto textos com classificação profissional são descritos como “extremamente difíceis de ler”.

Quanto menor a pontuação de legibilidade, mais difícil será a leitura do texto.

Cabeçalhos de coluna com botões são classificáveis.
Clipchamp 3 horas 16 minutos 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 horas 20 minutos 35.4 🤯🤯🤯🤯🤯
Veed.io. 2 horas 15 minutos 37.9 🤯🤯🤯🤯🤯
Facetune 2 horas 4 minutos 34.4 🤯🤯🤯🤯🤯🤯
OB.AI 1 horas 47 minutos 31.4 🤯🤯🤯🤯🤯🤯
Lontra 1 horas 11 minutos 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 horas 9 minutos 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gama 1 horas 6 minutos 30.9 🤯🤯🤯🤯🤯🤯
Discursar 1 horas 6 minutos 35.0 🤯🤯🤯🤯🤯🤯
Pista 1 horas 2 minutos 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

Em 2023, a seguradora empresarial britânica Superscript entrevistou os proprietários de 500 pequenas e médias empresas (PME) para descobrir o que consome mais tempo deles.

É significativo que "dormir o suficiente" — essencial para a saúde física e mental e para a função cognitiva — fique em terceiro lugar, atrás de "trabalhar muitas horas" e "resolver declarações de imposto de renda".

Um terço dos entrevistados sentiu que não era possível fazer todas as suas tarefas administrativas durante o horário de trabalho, e disseram que precisava de quatro horas extras por dia para passar por tudo isso.

Isto dá uma ideia de quão penoso pode ser gerir uma PME e que tempo necessário para ler os termos e condições por trás das ferramentas em que confiam está não é fácil de encontrar.

Nesse contexto, o tempo de leitura de 40 minutos dos T&Cs para ferramentas de transcrição como Otter, Trint e Descript é altamente importante. 

E isso pressupõe que seja possível entender os termos e condições mais difíceis de ler. É por isso que buscamos a expertise de um especialista jurídico.

Josilda Ndreaj, um profissional jurídico e advogado licenciado, conduziu questões jurídicas complexas em nome de clientes da Fortune 500 e prestou consultoria a várias empresas.

Mais recentemente, como consultora independente, ela tem focado em direito de propriedade intelectual na intersecção da tecnologia blockchain e inteligência artificial.

Josilda Ndreaj (LLM) é uma profissional jurídica e advogada licenciada com experiência em direito de Propriedade Intelectual (PI).

Sua carreira como consultora jurídica começou em um prestigiado escritório de advocacia internacional, atendendo clientes da Fortune 500. Aqui, Josilda navegou por questões jurídicas complexas e prestou consultoria a diferentes corporações.

Motivada por interesses em inovação, criatividade e tecnologias emergentes, Josilda então se aventurou na consultoria independente e se concentrou em direito de Propriedade Intelectual, cobrindo a intersecção entre tecnologia blockchain e inteligência artificial.

Josilda possui dois títulos de Mestre em Direito: um com especialização em Direito Civil e Comercial pela Universidade de Tirana, e o outro com foco em Direito de Propriedade Intelectual pela Universidade de Economia e Direito de Zhongnan.

Assim, Josilda era em posição única para rever uma seleção dos documentos legais dessas ferramentas de IA, destacando pontos-chave para o benefício daqueles que não possuem dois títulos de Mestre em Direito.

Seus resumos estão descritos abaixo:

Gemini (anteriormente Bard) não tem obrigação de declarar fontes de treinamento, então não podemos verificar se ele é treinado em materiais protegidos por direitos autorais. Gemini não está excluído de responsabilidades de tal violação; se um detentor de direitos autorais apresentar queixa, Gemini assume alguma responsabilidade. Mas é importante notar que Gemini é treinado no que o usuário lhe dá. Para isso, Gemini requer uma licença do usuário. Se o usuário concordar em conceder essa licença à Gemini, mas ele (o usuário) não for o proprietário real dos direitos autorais, a responsabilidade será transferida para o usuário.

Os usuários mantêm a propriedade de suas entradas e prompts, mas a propriedade da saída é mais complexa. Gemini não deixa isso claro em seus Termos. Muitas legislações não reconhecem direitos de propriedade intelectual de máquinas. É, no entanto, questionável argumentar que a saída é “gerada por humanos”, mesmo que o usuário seja dono da entrada.

Precisão e confiabilidade

Use sempre a discrição ao confiar em Gêmeos para obter informações precisas. Os Termos de Serviço declaram que a precisão não deve ser automaticamente assumida pelo usuário. Portanto, você deve verificar todos os conteúdos gerados pelo Gemini. 

Proprietários de empresas nunca devem publicar uma saída da Gemini sem fazer referência cruzada, revisar atualizações e verificar com especialistas a precisão. Caso contrário, eles correm o risco de publicar informações enganosas, o que pode trazer consequências legais ou de reputação.

Segurança e confidencialidade

O Google (proprietário do Gemini) não fornece informações em sua Política de Privacidade sobre como lida com dados confidenciais.

Uso

O Google não declara nada em seus Termos de Serviços sobre se o conteúdo gerado pelo Gemini pode ser usado para fins comerciais. Ele explica restrições para coisas como direitos de propriedade intelectual mas nada específico para conteúdo gerado por IA.

Atualmente, nenhuma legislação exige que o ChatGPT declare publicamente em que seu modelo é treinado. Então, como ele não revela suas fontes, não podemos saber se o ChatGPT entrega ou processa conteúdo protegido por leis de direitos autorais. Se alguém identificar conteúdo protegido por direitos autorais do ChatGPT, eles podem fazer uma reclamação para remover esse conteúdo.

Os Termos do ChatGPT estabelecem que a entrada do usuário, mesmo que protegida por direitos autorais, é usado para melhorar o serviço e treinar o modelo; e o usuário não pode optar por não participar disso. Os Termos do ChatGPT dizem que um usuário possui todo o conteúdo de entrada e saída (se o conteúdo de entrada já for usado legalmente), mas isso não garante que o usuário possua os direitos autorais daquele conteúdo de entrada e saída. Além disso, os usuários não podem fazer passar nada do ChatGPT como "gerado por humanos".

Precisão e confiabilidade

Os usuários devem verificar todas as informações do ChatGPT. Isso porque O ChatGPT não se responsabiliza por fornecer informações precisas, conteúdo atualizado. De acordo com sua seção de Isenção de Garantia, o usuário assume todos os riscos de precisão, qualidade, confiabilidade, segurança e integridade. Portanto, sempre verifique os fatos do ChatGPT; faça referências cruzadas, revise as atualizações e verifique com especialistas a precisão também. Proprietários de empresas podem enfrentar consequências legais ou de reputação se não verificarem a precisão do conteúdo do ChatGPT antes da publicação. 

Segurança e confidencialidade

O ChatGPT coleta informações de entradas — incluindo informações pessoais — para potencialmente treinar seus modelos (de acordo com a Política de Privacidade). O usuário pode optar por não participar. A situação muda se os dados forem enviados por meio de conexões de API (ChatGPT Enterprise, Team, etc.); isso ocorre porque O ChatGPT não usa entradas de clientes empresariais para treinar modelos. O ChatGPT tem medidas de segurança em vigor, mas não aborda explicitamente a responsabilidade por uma violação de segurança. Tudo depende das leis regionais. 

Uso

Os usuários do ChatGPT são donos de seu conteúdo de entrada e saída; os usuários, portanto, devem garantir que o conteúdo não viole nenhuma lei. Os usuários não podem alegar que o conteúdo é gerado por humanos, mas você também não precisa dizer que é gerado por IA. Desde que os usuários sigam as leis regionais e os Termos de Uso, o conteúdo do ChatGPT pode ser usado para fins comerciais, em mídias sociais, para publicidade paga e outros canais. É aconselhável que você verifique os fatos, faça referências e cumpra as leis antes de publicar conteúdo do ChatGPT. 

Nem a Política de Privacidade nem os Termos especificam se a ferramenta de IA da DeepSeek foi treinada em materiais protegidos por direitos autorais. Além disso, eles também não fornecem garantias de que as saídas não infringirão os direitos autorais de ninguém. Os Termos de Uso da DeepSeek declaram que os usuários mantêm direitos sobre suas entradas (prompts), mas isso não significa necessariamente que eles sejam protegidos por direitos autorais, então os usuários devem tomar medidas para garantir que o que estão usando como prompts não seja propriedade intelectual de outra pessoa.

Os Termos também declaram explicitamente que o o usuário é responsável por todas as entradas e saídas correspondentes, então, com isso em mente, os usuários devem verificar isso de forma independente, buscando aconselhamento jurídico e/ou usando bancos de dados de direitos autorais. Por exemplo, o Catálogo público do US Copyright Office permite que os usuários pesquisem obras registradas nos EUA, enquanto Pesquisa reversa de imagens do Google ajuda a verificar se uma imagem foi publicada anteriormente ou protegida por direitos autorais.

Precisão e confiabilidade

Os Termos de Uso do DeepSeek dizem que as saídas são geradas por IA e, portanto, podem conter erros e/ou omissões. refere-se especificamente a questões médicas, legais e financeiras que os usuários podem perguntar ao DeepSeek sobre, e como as saídas do DeepSeek não constituem aconselhamento. Mas, de forma mais ampla, diz o mesmo sobre 'questões profissionais', que pode ser praticamente qualquer coisa — desde marketing e pesquisa até tecnologia e educação e muito mais — e que os resultados não ...representam as opiniões de qualquer campo profissional.' Os usuários devem, portanto, verificar de forma independente a precisão de todas as saídas do DeepSeek.

Segurança e confidencialidade

A Política de Privacidade da DeepSeek explica que as entradas do usuário são processadas para gerar saídas, mas também para melhorar o serviço do DeepSeek. Isso inclui 'treinando e melhorando [sua] tecnologia'. Os usuários devem, portanto, ter cuidado ao inserir informações confidenciais e, embora o DeepSeek tenha 'comercialmente razoável' medidas em vigor para proteger os dados e informações usados ​​como entradas, não fornece nenhuma garantia absoluta. Os termos do DeepSeek declaram que eles não publicam entradas ou saídas em fóruns públicos, mas alguns podem ser compartilhados com terceiros.

Uso

Qualquer conteúdo que os usuários geram por meio do DeepSeek pode ser usado para fins comerciais, mas devido às áreas cinzentas em torno do plágio e da precisão, os usuários devem tomar medidas para verificar o conteúdo antes de usá-lo dessa forma. Os Termos de Serviço do DeepSeek não fazem referência a nenhuma limitação sobre onde no mundo os usuários podem publicar esse conteúdo, mas eles afirmam claramente que os usuários devem declará-lo como gerado por IA 'para alertar o público sobre a natureza sintética do conteúdo'.

O Canva não é legalmente obrigado a revelar suas fontes para dados de treinamento. Portanto, não sabemos se material protegido por direitos autorais é usado. O usuário é dono de todo o conteúdo de entrada e saída (não o Canva), mas o Canva pode usar esse conteúdo para melhorar seus serviços. 

Precisão e confiabilidade

Ursos de lona nenhuma responsabilidade pela precisão do conteúdo. O usuário deve sempre verificar os fatos. 

Segurança e confidencialidade

canva usa conteúdo de entrada para treinar seu modelo. É o responsabilidade do usuário de evitar o uso de informações confidenciais ou pessoais para entradas. O Canva tenta filtrar tais entradas para treinamento de modelo, mas não há garantias. A ferramenta de IA do Canva não é responsável por problemas de segurança causados ​​pelo usuário.

Uso

Os usuários do Canva podem usar conteúdo gerado para fins comerciais. Existem condições, embora, como não publicar conteúdo enganoso. A empresa tem um lista de itens proibidos, em uma seção intitulada “Seja um bom ser humano”.

Semelhante ao ChatGPT, o DALL-E não declara fontes para seu treinamento de modelo. Se, no entanto, você encontrar conteúdo protegido por direitos autorais, você pode apresentar uma solicitação de remoção. É difícil verificar se o DALL-E infringe direitos autorais, pois nenhuma legislação exige que o DALL-E revele suas fontes de dados. A entrada do usuário, de acordo com os Termos, pode ser usado para treinar o modelo DALL-E — mesmo que seja conteúdo protegido por direitos autorais. O usuário pode optar por não participar disso.  

DALL-E conteúdo de entrada e saída do próprio usuário (não DALL-E), mas isso não significa que o usuário tenha direitos autorais sobre o conteúdo. Além disso, os usuários não pode alegar que o conteúdo DALL-E é gerado por humanos.

Precisão e confiabilidade

Ursos DALL-E nenhuma responsabilidade por conteúdo impreciso. Seus Termos transferem toda a responsabilidade para o usuário. Essas responsabilidades incluem confiabilidade, precisão, qualidade, segurança e integridade do conteúdo. Então, antes de publicar, os usuários devem sempre fazer referências cruzadas, revisar atualizações, verificar fatos e consultar especialistas, pois a publicação de informações falsas pode levar a repercussões legais ou de reputação. 

Segurança e confidencialidade

A Política de Privacidade e os Termos e Condições da DALL-E nunca abordam explicitamente a responsabilidade em caso de violação de segurança. A DALL-E tem medidas de segurança em vigor, no entanto. Quem assume a responsabilidade em caso de hack depende das leis regionais.

O DALL-E coleta a entrada do usuário para treinamento do modelo, até mesmo informações pessoais, mas você pode optar por não participar. Com a API, no entanto, o DALL-E manipula dados de entrada de forma diferente; não usa dados de usuários empresariais para treinar seus modelos

Uso

A o usuário possui o conteúdo de entrada e saída do DALL-E; eles também devem garantir que o conteúdo não viole nenhuma lei ou os Termos DALL-E. Você não pode alegar que o conteúdo do DALL-E é gerado por humanos, mas você também não precisa dizer que é gerado por IA. 

Você pode usar o DALL-E para fins comerciais, desde que siga todas as leis e os Termos do DALL-E. Os regulamentos podem mudar, mas, no momento da redação deste documento, os usuários podem publicar o conteúdo do DALL-E nas mídias sociais, em anúncios e em outros canais. Os usuários devem sempre fazer referências adequadas e verificar a precisão dos fatos para evitar violar quaisquer leis.

O Bing não tem obrigação de compartilhar suas fontes de treinamento de dados, o que torna muito difícil descobrir se o Bing AI usa inadvertidamente conteúdo protegido por direitos autorais. Embora seja difícil de identificar, os usuários podem fazer reivindicações sobre conteúdo protegido por direitos autorais. O Contrato de Serviços da Microsoft diz que o Bing AI recebe entradas e saídas do usuário para melhorar seu modelo, mas não há nada formal em vigor para evitar roubo de propriedade intelectual.

A O Contrato de Serviços diz que os usuários concedem à Microsoft uma licença de propriedade intelectual mundial e livre de royalties para usar seu conteúdo. Além disso, Bing/Microsoft recebe entradas do usuário para treinar modelos de IA.

Precisão e confiabilidade

A Microsoft não oferece garantias quanto à precisão ou atualidade do conteúdo de seus serviços de IA. Portanto, você deve checar os fatos de tudo das ferramentas de IA da Microsoft, especialmente se você for um empresário que quer evitar quaisquer consequências legais e de reputação. 

Segurança e confidencialidade

Ferramentas de IA da Microsoft (incluindo Bing AI) usar dados pessoais e confidenciais do usuário para treinar seus modelos. Seu Contrato de Serviço não cobre conteúdo gerado por IA; em vez disso, ele tenta transferir toda a responsabilidade do conteúdo de IA para o usuário. A Microsoft também não assume nenhuma responsabilidade para as práticas de privacidade e segurança de seus clientes. Em resumo, se seus dados forem violados ao usar o Bing AI, o problema é seu, não da Microsoft.  

Uso

A Microsoft não reivindica a propriedade do conteúdo do usuário, mas não regula especificamente o conteúdo gerado por IA, onde a propriedade é incerta. O Contrato de Serviços permite que as pessoas usem o conteúdo para fins comerciais, com algumas estipulações significativas: você deve aceitar que o conteúdo gerado por IA não tem criatividade humana, então não pode ser reivindicado como propriedade intelectual; você também não deve infringir os direitos de propriedade intelectual de terceiros. Em suma, você não pode usar propriedade intelectual de terceiros, mas o que quer que você faça com o Bing provavelmente não é sua propriedade intelectual.

Quillbot tem nenhuma obrigação de revelar as fontes que usa para treinar modelos. No entanto, a empresa tenta regulamentar de forma interessante uma situação única: e se a fonte do treinamento do modelo for a saída da IA? O Quillbot essencialmente tenta minimizar o potencial de saída protegida por direitos autorais, mas afirma que ainda há uma chance de a saída ser protegida por direitos autorais se os usuários inserirem conteúdo protegido por direitos autorais. Para tornar as coisas mais confusas, o Quillbot tenta cobrir todas as áreas dizendo que os usuários concedem ao Quillbot uma licença ilimitada e sublicenciável, ao mesmo tempo em que afirma que os usuários são donos de todas as suas saídas. 

Precisão e confiabilidade

Ursos Quillbot nenhuma responsabilidade pela precisão ou confiabilidade. Os usuários devem ser muito cautelosos e verificar todos os fatos do Quillbot. 

Segurança e confidencialidade

Quillbot tem medidas para proteger a privacidade do usuário, mas ainda pode acabar processando dados pessoais. Há proteções especiais para a privacidade das crianças. A responsabilidade pela perda de dados de um hack é tratada caso a caso. O Quillbot afirma que o usuário deve tomar medidas para evitar que seus dados pessoais sejam hackeados, e que o Quillbot tem elementos de proteção de dados em vigor. 

Uso

Os usuários do Quillbot podem publicar conteúdo gerado para fins comerciais, mas você pode precisar seguir algumas regras, como não publicar conteúdo prejudicial ou enganoso. Condições não diga que você precisa declarar que seu conteúdo é gerado por IA. Em suma, o o usuário pode publicar conteúdo gerado pelo Quillbot desde que não viole nenhuma lei ou direito. 

O Pixlr não revela suas fontes para treinamento de modelos de IA, já que não há obrigação legal para que eles o façam. Seus Termos declaram que o usuário é dono do conteúdo, mas os usuários também conceder uma licença ao Pixlr para usar o conteúdo. Esta é uma tentativa de minimizar o uso de conteúdo protegido por direitos autorais. 

Precisão e confiabilidade

O Pixlr não se responsabiliza por imprecisões em seu conteúdo gerado por IA. Os usuários devem ter cuidado para verificar os fatos de tudo do Pixlr. 

Segurança e confidencialidade

O Pixlr recebe entradas do usuário para treinamento do modelo de IA. Ele passa o fardo para o usuário ter cuidado ao inserir informações pessoais ou confidenciais. A Pixlr renuncia à sua responsabilidade de filtrar algumas informações de seus dados de treinamento, embora use alguns filtros para bloquear informações pessoais ou confidenciais. A Pixlr alega nenhuma responsabilidade por problemas de segurança causados ​​por ações dos usuários

Uso

Os usuários podem publicar conteúdo gerado por IA feito por meio do Pixlr para fins comerciais (embora algumas condições se apliquem). Os termos não exigem que você declare que algo é gerado por IA. Os usuários ainda são responsáveis ​​por violar direitos ou leis, no entanto. 

Meio da jornada os usuários concedem à empresa direitos sobre todos os ativos feitos por meio dela, mas o o usuário também possui todos os ativos. Existem exceções, como a de que você não pode reivindicar a propriedade se você acabei de aumentar uma imagem de um criador original.

Precisão e confiabilidade

A Midjouney não se responsabiliza pela confiabilidade e precisão de seu conteúdo. Os usuários, portanto, devem tomar cuidado extra para verificar os fatos e checar a confiabilidade. 

Segurança e confidencialidade

O Midjourney treina seu modelo com entradas do usuário, mesmo que inclua dados pessoais ou confidenciais. A Midjourney alega que o usuário deve ter cuidado com dados sensíveis, então não é problema deles. A empresa tenta filtrar certas informações para treinamento de modelo, mas não é obrigatório. A Midjourney não reivindica nenhuma responsabilidade por problemas de segurança que possam ocorrer a partir das ações de um usuário. 

Uso

Usuários do Midjourney podem publicar conteúdo gerado para fins comerciais. Algumas condições, como a exigência de assinar a versão Pro se a empresa faturar mais de US$ 1 milhão por ano, aplicar. No momento da escrita, os usuários não precisam alegar que nada é gerado por IA do Midjourney, embora a legislação esteja em andamento para mudar isso. Os usuários geralmente podem usar qualquer conteúdo do Modjourney se ele não violar nenhum direito ou lei. 

Clipchamp é um produto da Microsoft, então ele não reivindica nenhuma obrigação de compartilhar fontes de dados para treinamento de modelos. Portanto, é difícil dizer se a ferramenta de IA usa inadvertidamente dados protegidos por direitos autorais. Alguém deve identificar a violação de direitos autorais para fazer uma reivindicação, o que é improvável. O Contrato de Serviços da Microsoft diz ele pode usar entradas e saídas do usuário para melhorar os serviços, e a Microsoft não regula questões de propriedade intelectual. Além disso, os usuários concedem uma licença de propriedade intelectual mundial e livre de royalties à Microsoft

Precisão e confiabilidade

Clipchamp e Microsoft não garante nada em termos de precisão ou atualidade de suas ferramentas de IA, então os usuários devem verificar todos os fatos antes da publicação. Isso é particularmente verdadeiro para proprietários de negócios que podem enfrentar consequências legais e de reputação. 

Segurança e confidencialidade

Clipchamp e Microsoft usar dados pessoais e confidenciais para treinamento de modelos. A Microsoft tenta transferir a responsabilidade por todos os problemas de conteúdo para o usuário. O mesmo vale para hacking e violações de segurança; é responsabilidade do usuário se algo acontecer. 

Uso

Clipchamp e Microsoft se afastam da regulamentação de conteúdo gerado por IA, nunca alegando que a Microsoft é dona do conteúdo. Tecnicamente, a Microsoft diz que o usuário é dono, mas sem os direitos de propriedade intelectual. O usuário pode publicar conteúdo do Clipchamp para fins comerciais com duas estipulações: você não pode infringir direitos de propriedade intelectual ou alegar que tem direitos de propriedade intelectual para o conteúdo gerado. 

O Looka Condições declaram que a empresa não tem obrigações de compartilhar fontes de treinamento de dados, então eles não o fazem. Os usuários assumem todos os riscos ao usar conteúdo gerado pela Looka. 

Precisão e confiabilidade

A Looka não se responsabiliza pela precisão e confiabilidade dos resultados de suas ferramentas de IA. Os usuários devem verificar todos os fatos e verificar a confiabilidade. 

Segurança e confidencialidade

A Looka usa dados de entrada — mesmo dados potencialmente pessoais e confidenciais — para treinar seu modelo, portanto, o usuário é responsável por não utilizar esse tipo de dado em sua entrada. A Looka tenta filtrar tais dados, mas eles alegam que não precisam. Além disso, todos os problemas de segurança são de responsabilidade do usuário. 

Uso

Os usuários do Looka podem usar conteúdo gerado por IA para fins comerciais, mas podem precisar seguir condições ou pagar uma taxa. Os usuários não precisam rotular seu conteúdo gerado como gerado por IA. Os usuários devem evitar publicar conteúdo gerado que viole direitos ou leis. 

Não é possível dizer se o Speechify treina seu modelo em materiais protegidos por direitos autorais. Simplesmente não sabemos. Os Termos do Speechify recomendam não usar material protegido por direitos autorais para entradas, o que sugere que algumas saídas podem ter dados protegidos por direitos autorais. Speechify afirma não ter qualquer responsabilidade por isso

Precisão e confiabilidade

Speechify, de acordo com sua Condições, não assume nenhuma responsabilidade pela precisão de suas saídas. Os usuários devem sempre verificar a pontualidade, confiabilidade e precisão com o Speechify. 

Segurança e confidencialidade

Discursar transfere toda a responsabilidade ao usuário quando se trata de inserir dados pessoais ou sensíveis. A ferramenta usa entradas para treinar modelos, então os usuários devem ter cuidado. O Speechify não precisa necessariamente filtrar dados pessoais ou sensíveis, mas tenta com alguns filtros. Todas as responsabilidades por problemas de segurança são passadas para o usuário. 

Uso

Os usuários do Speechify podem usar saídas para fins comerciais, com algumas condições como ter que assinar ou obter licenças. Comercial não precisa declarar que o conteúdo do Speechify é gerado por IA. No entanto, os usuários do Speechify nunca devem violar direitos ou leis ao publicar resultados do Speechify. 

O Kapwing Os termos colocam todas as responsabilidades de propriedade intelectual e precisão no usuário. Todos os usuários concedem à Kapwing uma licença não exclusiva, mas os usuários mantêm a propriedade do conteúdo. Kapwing não divulga nada sobre se usa dados de entrada para treinamento de modelos. 

Precisão e confiabilidade

Kapwing coloca todas as responsabilidades de precisão no usuário, especialmente quaisquer consequências legais e de reputação.

Segurança e confidencialidade

Os usuários do Kapwing assumem todos os riscos ao escolher inserir informações confidenciais em sua ferramenta de IA. Ele também não oferece nenhuma garantia ou responsabilidade sobre a segurança do serviço.

Uso

Você pode publicar conteúdo do Kapwing comercialmente, mas o Kapwing aconselha os usuários a serem cautelosos. Seus termos não dizem se os usuários devem ou não declarar que a saída do Kapwing é gerada por IA.

A Otter.ai declara que não permite materiais que violem direitos autorais em seus serviços, mas é difícil verificar essa afirmação. Os usuários mantêm a propriedade e os direitos autorais das entradas e postagens no Otter.ai, mas o Otter.ai diz os usuários são responsáveis for não inserir conteúdo protegido por direitos autorais anteriormente. Lontra.ai também pode usar entradas para aprendizado de máquina.

Precisão e confiabilidade

Otter.ai se isenta de responsabilidade quanto à precisão e confiabilidade, então os usuários devem sempre verificar o conteúdo. Usar informações factualmente enganosas ou incorretas pode causar problemas legais ou de reputação para o usuário. 

Segurança e confidencialidade

Todo risco de exposição de informações confidenciais no Otter.ai pertence ao usuário. 

Uso

Os usuários podem publicar com intenção comercial já que os usuários são os donos do conteúdo da Otter.ai. Dito isso, o conteúdo gerado por IA não tem regras claras de propriedade. A Otter.ai também afirma suas notas transcritas podem ser pesquisadas e compartilhadas.

O PhotoRoom poderia receber entradas e saídas do usuário para treinamento de modelo, mas há informações limitadas sobre se o serviço faz isso ou não. Os Termos do PhotoRoom lembram os usuários de evitar alimentar conteúdo protegido por direitos autorais. Os usuários assumem toda a responsabilidade para isso. 

Precisão e confiabilidade

sala de fotos não se responsabiliza pela precisão ou confiabilidade do conteúdo gerado por IA. Os usuários devem executar suas próprias verificações para verificar isso.

Segurança e confidencialidade

O PhotoRoom usa entradas para treinar seus modelos. Os usuários são responsáveis ​​ao inserir informações confidenciais or Informações Pessoais. O serviço tenta filtrar esses tipos de entradas, mas não afirma nenhuma exigência para isso. Os usuários têm toda a responsabilidade por problemas de segurança. 

Uso

Conteúdo do PhotoRoom pode ser usado para fins comerciais, mas algumas condições podem ser aplicadas, como a inscrição para uma assinatura. Os Termos declaram que você não precisa marcar o conteúdo como gerado por IA. Os usuários podem ver outras repercussões se violarem direitos ou leis. 

Aviso Legal

Estas informações são apenas para fins de informação geral e não devem ser tomadas como aconselhamento jurídico. A Ecommerce Platforms não assume nenhuma responsabilidade por erros ou omissões. Consulte um profissional jurídico adequado para aconselhamento e orientação adaptados às suas necessidades e circunstâncias específicas.

Conclusão

A onipresença da IA ​​torna cada vez mais provável que todos nós utilizemos ferramentas e aplicativos baseados nessa tecnologia — mas muitos de nós não temos o luxo do tempo necessário para ler seus termos e condições. 

Em 2017, a rede de serviços profissionais Deloitte descobriram que 91% dos consumidores “aceitar voluntariamente os termos e condições legais sem lê-los” — aumentando para 97% entre as idades de 18 a 34 anos.

Considerando a quantidade de T&Cs de IA que classificamos com pontuações baixas de legibilidade, parece que a impenetrabilidade do jargão jurídico desses documentos desencoraja os usuários até mesmo de tentar entendê-los. 

Trabalhamos com um profissional jurídico para analisar os documentos para nós, mas é questionável se isso seria necessário.

Esperamos que esta pesquisa — incluindo suas classificações de legibilidade e a experiência de Josilda Ndreaj sobre os termos e condições a serem considerados — ajude a orientar suas escolhas sobre quais aplicativos e ferramentas de IA usar. 

Metodologia e Fontes

Como conduzimos a pesquisa

Começando com uma lista de sementes de cerca de 90 ferramentas e aplicativos de IA, primeiro reunimos a documentação legal de cada ferramenta, de termos e condições a políticas de privacidade. Em seguida, registramos o comprimento das palavras desses documentos e calculamos sua pontuação de legibilidade usando o sistema de classificação de Flesch-Kincaid. Em seguida, solicitamos a ajuda de uma especialista jurídica, Josilda Ndreaj (LLM), que revisou uma seleção desses documentos legais e identificou pontos-chave dos quais os usuários devem estar cientes.

Para cerca de 30 das ferramentas de IA que têm versões de aplicativos móveis disponíveis, pesquisamos cada uma na Apple App Store e registramos seus rótulos de privacidade exibidos em suas listagens. Eles são divididos em 14 categorias de dados que podem ser coletados dos usuários e para qual propósito. Para calcular quais aplicativos de IA coletaram mais dados, medimos quantas das 14 categorias possíveis esses aplicativos rastrearam seus usuários. 

É importante observar que essas 14 categorias são divididas ainda mais em pontos de dados individuais. Por exemplo, 'Informações de contato' inclui cinco pontos de dados, que são; 'Nome', 'Endereço de e-mail', 'Número de telefone', 'Endereço físico' e 'Outras informações de contato do usuário'. Para descobrir quais aplicativos coletam mais pontos de dados individuais, dê uma olhada na última coluna em cada uma das tabelas.

Alguns aplicativos coletarão mais pontos de dados individuais do que aqueles que aparecem mais alto no ranking. Isso ocorre porque nossa metodologia de classificação considera quais aplicativos coletam dados na maioria das categorias no geral, sugerindo uma imagem mais ampla e, portanto, mais "completa" dos dados do usuário, em vez da profundidade das informações que eles coletam em cada categoria. 

Fontes

Solicitações de correção

Atualizamos esta pesquisa periodicamente.

Se você for o proprietário de qualquer uma das ferramentas de IA incluídas nesta pesquisa e quiser contestar as informações nesta página, estamos dispostos a atualizá-las, sujeito à nossa revisão das evidências que você fornecer. Ao entrar em contato conosco a esse respeito, pedimos gentilmente: 

  • documentos comerciais que comprovem sua legitimidade (por exemplo, certificado de constituição ou documentos de registro) 
  • as informações nesta página que você acredita estarem desatualizadas (seja específico)
  • como deve ser atualizado e por quê, com links para documentação que comprove isso (por exemplo, alterações nos Termos de Serviço)

Entre em contato conosco em [email protegido] com o assunto: 'Solicitação de correção: estudo de ferramentas de IA', além do nome da ferramenta de IA sobre a qual você está nos contatando.

Bogdan Rancea

Bogdan Rancea é o cofundador da Ecommerce-Platforms.com e curador líder da ecomm.design, uma vitrine dos melhores sites de comércio eletrônico. Com mais de 12 anos no espaço do comércio digital, ele tem uma riqueza de conhecimento e um olhar aguçado para grandes experiências de varejo online. Como um explorador de tecnologia de comércio eletrônico, Bogdan testa e analisa várias plataformas e ferramentas de design como Shopify, Figma e Canva e fornece conselhos práticos para proprietários de lojas e designers.

shopify-primeira-promoção-de-um-dólar-3-meses