Что скрывается за мелким шрифтом: понимание приложений ИИ и конфиденциальности

Если вы подпишитесь на услугу по ссылке на этой странице, Reeves and Sons Limited может получить комиссию. Смотрите наши заявление об этике.

Искусственный интеллект быстро стал частью современного духа времени, однако этические вопросы, связанные с этой темой, остаются нерешенными. Сколько пользователей полностью осознают, на что они подписываются?

Здесь, подробно описывая положения, условия и политику конфиденциальности самых популярных инструментов и приложений ИИ, Ecommerce Platforms раскрывает то, что вам нужно знать при использовании этих инструментов для повседневных бизнес-нужд.

Мы проанализировали данные и личную информацию, которые собирают эти инструменты (и с какой целью), чтобы помочь вам определить, какие Инструменты AI, программное обеспечение и платформы наиболее подходят для предполагаемого использования. Мы также проконсультировались с экспертом по правовым вопросам, чтобы разобраться в жаргоне. лежащие в основе положений и условий этих инструментов.

Мы проанализировали метки конфиденциальности в Apple App Store примерно для 30 доступных версий мобильных приложений популярных инструментов искусственного интеллекта, чтобы понять, какие из них собирают ваши данные и почему. 

Собранные от пользователей данные (и их назначение) делятся на 14 категорий, что позволяет установить, какие приложения собирают и отслеживают больше всего пользовательских данных.

Более подробную информацию можно найти в разделе «Методология» в конце этой страницы.

Какие данные собирают эти приложения ИИ?

Инструменты ИИ, рассмотренные в данном исследовании, собирают данные различных типов. Некоторые из них сосредоточены на личных данных пользователей. — от псевдонимов и банковских реквизитов до состояния здоровья и физической формы и даже конфиденциальной информации, такой как раса/этническая принадлежность, сексуальная ориентация, гендерная идентичность и политические взгляды. 

Другие относятся к контенту, созданному пользователями (например, электронные письма и сообщения, фотографии, видео и звукозаписи), или к тому, как пользователи взаимодействуют с самим продуктом, например, к истории поиска в приложении или к просмотренной рекламе. Еще более безличной является диагностическая информация, собранная для отображения данных о сбоях или использовании энергии.

Зачем эти приложения ИИ собирают данные?

Существуют разные причины, по которым приложения собирают данные, некоторые из которых могут рассматриваться как более оправданные, чем другие — например, для аутентификации личности пользователя могут использоваться биометрические данные или контактная информация.

Аналогичным образом, доступ к определенным данным может потребоваться для корректной работы приложения, в том числе для предотвращения мошенничества или повышения масштабируемости и производительности.

В частности, приложениям для обмена сообщениями необходим доступ к контактам, камерам телефона и микрофонам для совершения звонков, а геолокация необходима для приложений такси или доставки.

Менее существенные причины для сбора данных включают: реклама или маркетинг разработчиком приложения (например, для отправки маркетинговых сообщений вашим пользователям); включение сторонней рекламы (например, путем отслеживания данных из других приложений для направления целевой рекламы пользователю); и анализ поведения пользователя в целях, включающих оценку эффективности существующих функций или планирование новых.

Привет, мобильный пользователь. 👋 Таблицы ниже можно прокручивается горизонтально чтобы увидеть все данные, но эта страница определенно выглядит лучше на Desktop.

Приложения на основе искусственного интеллекта, которые собирают ваши данные для передачи сторонним рекламодателям

Заголовки столбцов с кнопками можно сортировать.
Приложение ИИ % данных, переданных другим просмотр истории Контакты Идентификаторы Локация Другие данные Покупки История поиска Используемые Данные Количество собранных точек данных
Canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Пиксай 14% 1 1 2
Вомбо 14% 1 1 2
ChatGPT 7% 1 1
Джинн ИИ 7% 1 1
Lensa 7% 1 1
Speechify 7% 1 1
Звездный AI 7% 1 1

Из всех приложений ИИ, включенных в наше исследование, Canva, инструмент графического дизайна, собирает большую часть данных от своих пользователей для сторонних рекламных целей — около 36%. Напротив, пять приложений, которые собирают меньше всего данных для этой цели, собирают чуть более 7%.

Данные, которые приложение Canva собирает у вас и передает третьим лицам, включают вашу историю поиска, местоположение, адрес электронной почты и другую информацию, указанную в таблице выше. 

Следом за Canva следует игровое приложение для изучения языка Duolingo (~36%), Google Assistant (~21%) и Бинг от Microsoft (~14%) — все из которых также делиться своими данными с третьими лицами

Из пяти приложений, которые собирают меньше всего данных, только Старрайи (генератор изображений) ограничивается исключительно обменом данными об использовании.

Приложения ИИ, которые собирают ваши данные в своих интересах

Заголовки столбцов с кнопками можно сортировать.
Приложение % данных, собранных для собственной выгоды приложения просмотр истории Контакты Идентификаторы Локация Покупки История поиска Используемые Данные Количество собранных точек данных
Canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Амазонки Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
PhotoRoom 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
Звездный AI 14% 2 1 3
Bing 14% 1 1 2
Lensa 14% 1 1 2
Выдра 7% 2 2
Есть 7% 1 1
Poe 7% 1 1
Пиксай 7% 1 1
Speechify 7% 1 1
Вомбо 7% 1 1

Canva также возглавляет рейтинг приложений на базе искусственного интеллекта, собирающих пользовательские данные для собственных рекламных или маркетинговых целей.. Для этого Canva собирает около 43% данных их пользователей.

В-третьих, Amazon Alexa собирает 36% ваших данных для той же цели. Сюда входит ваш адрес электронной почты, физический адрес, номер телефона, история поиска и история покупок, а также пять других точек данных. Google Assistant По этой причине Amazon Alexa собирает и передает тот же процент данных, хотя и по восьми отдельным точкам, а не по десяти.

Команда Генератор речи, преобразующий текст в речь, Speechify входит в число приложений, собирающих наименьшее количество данных. Согласно меткам конфиденциальности в Apple App Store, Speechify собирает только одна точка данных для его же собственной выгоды; идентификатор вашего устройства.

Приложения ИИ, которые собирают ваши данные для любых целей

Заголовки столбцов с кнопками можно сортировать.
Приложение % собранных данных просмотр истории Контакты Контакты Диагностика Финансовая информация Здоровье и Фитнес Идентификаторы Локация Другие данные Покупки История поиска Конфиденциальная информация Используемые Данные Содержимое Пользователь Количество собранных точек данных
Амазонки Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
Canva 64% 11 3 1 8 5 4 5 10 6 53
Выдра 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
ДипСик 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ЭЛЬСА Говорит 43% 2 6 6 3 3 3 23
PhotoRoom 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Недоумение ИИ 36% 6 6 2 1 6 21
1 / 2

Все модели ИИ требуют определенной формы обучения посредством машинного обучения, что означает, что им нужны данные.

Если мы хотим, чтобы инструменты ИИ стали лучше и полезнеенашу конфиденциальность можно рассматривать как необходимый компромисс против предоставления этих данных.

Однако вопрос о том, где грань между полезностью и эксплуатацией должен быть нарисован, и почему, это тернистый вопрос.

Учитывая его нынешнюю известность, стоит обратиться к DeepSeekВ листинге приложения в Apple App Store указано, что DeepSeek не собирает данные пользователей для собственной выгоды (например, для собственного маркетинга и рекламы DeepSeek) или для передачи третьим лицам.

Но стоит отметить, что их Политика конфиденциальности гласит иное. (подробнее об этом позже). 

Команда Приложение DeepSeek само собирает 50% данных своих пользователей, который обслуживает аналитику и функциональность приложения DeepSeek. Для сравнения, Приложение ChatGPT собирает 36%.

Некоторые СМИ сообщают об опасениях по поводу рисков безопасности, связанных с китайским происхождением DeepSeek (как с точки зрения сбора данных, так и возможного распространения дезинформации) и подрыва конкурентов из США. Оба эти фактора вряд ли будут смягчены Условия и положения DeepSeek, а также политика конфиденциальности, что займет около 35 минуты на чтение, и оцениваются как "очень сложно" по шкале читаемости Флеша-Кинкейда.

Независимо от того, как используются ваши данные, Amazon Alexa собирает больше данных своих пользователей, чем любое другое приложение на базе искусственного интеллекта включено в это исследование. В целом, он собирает 93% ваших данных (или 116 отдельных показателей, в первую очередь контактная информация, пользовательский контент и данные об использовании).

Google Assistant Далее следует сбор 86%, затем Duolingo, который собирает 79%.

На другом конце шкалы Генератор изображений на основе ИИ, Stable Diffusion, не собирает никаких данных. Это указано в метках конфиденциальности в листинге приложения в Apple App Store.

Хотя это правда, что все генеративный ИИ модели требуют огромного количества данных для обучения, это обучение происходит до разработки конкретных приложений. В большинстве случаев создатели приложений не владеют моделями ИИ, которые они используют; поэтому сбор пользовательских данных относится к функциональности самого приложения. Это может объяснить, почему в таблице выше нет информации о некоторых исследованных нами приложениях.

Навигация по положениям и условиям, касающимся инструментов ИИ

Теперь давайте посмотрим на юридическая документация за различными инструментами ИИ, чтобы узнать насколько легко или трудно их читать. Это основано на тесте Флеша-Кинкейда по чтению на уровне класса.

Эта система приравнивает тексты к уровням чтения школ США (с пятого по двенадцатый класс), затем к уровням колледжа, выпускника колледжа и профессионального уровня. Тексты уровня шестого класса определяются как «разговорный английский для потребителей», тогда как тексты профессионального уровня описываются как «чрезвычайно трудные для чтения».

Чем ниже показатель читабельности, тем сложнее читать текст.

Заголовки столбцов с кнопками можно сортировать.
Clipchamp 3 часов 16 минут 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 часов 20 минут 35.4 🤯🤯🤯🤯🤯
veed.io 2 часов 15 минут 37.9 🤯🤯🤯🤯🤯
Facetune 2 часов 4 минут 34.4 🤯🤯🤯🤯🤯🤯
TheBA.AI 1 часов 47 минут 31.4 🤯🤯🤯🤯🤯🤯
Выдра 1 часов 11 минут 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 часов 9 минут 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Гамма 1 часов 6 минут 30.9 🤯🤯🤯🤯🤯🤯
Speechify 1 часов 6 минут 35.0 🤯🤯🤯🤯🤯🤯
ВПП 1 часов 2 минут 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

В 2023 году британская компания по страхованию бизнеса Superscript опросили владельцев 500 малых и средних предприятий (МСП) чтобы выяснить, что отнимает у них больше всего времени.

Характерно, что «достаточный сон», имеющий решающее значение для физического и психического здоровья, а также когнитивных функций, занимает третье место, уступая «долгим рабочим часам» и «заполнению налоговых деклараций».

Треть опрошенных посчитали, что невозможно выполнять все административные задачи в рабочее время.и сказали, что они нужно было четыре дополнительных часа в день, чтобы все это пережить.

Это дает представление о том, насколько изнурительным может быть управление малым и средним предприятием, и что время, необходимое для прочтения положений и условий за инструментами, на которые они полагаются, стоит нелегко найти.

В этом контексте 40-минутное время прочтения положений и условий для таких инструментов транскрибирования, как Otter, Trint и Descript, имеет весьма важное значение. 

И, это предполагает, что это возможно понять самые трудночитаемые положения и условия. Вот почему мы обратились за экспертизой к юридическому эксперту.

Джосильда Ндреаж, профессиональный юрист и лицензированный адвокат, занимался решением сложных юридических вопросов от имени клиентов из списка Fortune 500 и предоставлял юридические консультации различным корпорациям.

Совсем недавно, в качестве независимого консультанта, она сосредоточены на праве интеллектуальной собственности на стыке технологии блокчейн и искусственного интеллекта.

Джосильда Ндреаж (магистр права) — профессиональный юрист и лицензированный адвокат, специализирующийся в области права интеллектуальной собственности (ИС).

Ее карьера в качестве юридического консультанта началась в престижной международной юридической фирме, обслуживающей клиентов из списка Fortune 500. Здесь Джосильда занималась сложными юридическими вопросами и предоставляла консультации различным корпорациям.

Движимая интересом к инновациям, творчеству и новым технологиям, Джосильда затем занялась независимым консалтингом и сосредоточилась на праве интеллектуальной собственности, освещая взаимосвязь между технологией блокчейн и искусственным интеллектом.

Джосильда имеет две степени магистра права: одну со специализацией в гражданском и коммерческом праве от Тиранского университета и другую со специализацией в праве интеллектуальной собственности от Чжуннаньского университета экономики и права.

Таким образом, Джосильда была уникальная возможность ознакомиться с выбором юридических документов этих инструментов ИИ, излагая ключевые моменты для тех из нас, кто не имеет двух степеней магистра права.

Ниже приведены ее краткие выводы:

Gemini (ранее Bard) не обязана указывать источники обучения, поэтому мы не можем проверить, обучена ли она на материалах, защищенных авторским правом. Gemini не освобождена от ответственности за такое нарушение; если владелец авторских прав выдвигает обвинения, Gemini несет некоторую ответственность. Но важно отметить, что Gemini обучается на том, что дает ей пользователь. Для этого, Gemini требует лицензию от пользователя. Если пользователь соглашается предоставить эту лицензию Gemini, но он (пользователь) фактически не владеет авторскими правами, ответственность переходит к пользователю.

Пользователи сохраняют право собственности на свои вводимые данные и подсказки., но владение выходными данными сложнее. Gemini не разъясняет это в своих Условиях. Многие законодательства не признают права интеллектуальной собственности машин. Однако сомнительно утверждать, что выходные данные «создаются человеком», даже если пользователь владеет входными данными.

Точность и надежность

Всегда будьте осмотрительны, полагаясь на точную информацию от Близнецов. В Условиях предоставления услуг указано, что точность не должна предполагаться автоматически. пользователем. Поэтому вам следует проверять факты всего контента, генерируемого Gemini. 

Владельцы бизнеса никогда не должны публиковать выходные данные Gemini без перекрестных ссылок, проверки обновлений и проверки точности экспертами. В противном случае они рискуют опубликовать вводящую в заблуждение информацию, что может иметь репутационные или юридические последствия.

Безопасность и конфиденциальность

Компания Google (владелец Gemini) не предоставляет в своей Политике конфиденциальности никакой информации о том, как она обрабатывает конфиденциальные данные.

Применение

Google ничего не говорит в своих Условиях обслуживания о том, может ли контент, созданный Gemini, использоваться в коммерческих целях. Он объясняет ограничения на такие вещи, как права интеллектуальной собственности но ничего конкретно для контента, созданного ИИ.

В настоящее время ни одно законодательство не требует от ChatGPT публично заявлять, на чем обучается его модель. Поэтому, поскольку он не раскрывает свои источники, мы не можем знать, доставляет ли ChatGPT или обрабатывает ли он контент, защищенный законами об авторских правах. Если кто-то идентифицирует защищенный авторским правом контент из ChatGPT, они могут подать иск для удаления этого контента.

Условия ChatGPT гласят, что пользовательский ввод, даже если он защищен авторским правом, используется для улучшения сервиса и обучения модели; и пользователь не может отказаться от этого. Условия ChatGPT говорят, что пользователь владеет всем входным и выходным контентом (если входной контент уже используется законно), но это не гарантирует, что пользователь владеет авторскими правами на этот входной и выходной контент. Кроме того, пользователи не могут выдавать что-либо из ChatGPT за «сгенерированное человеком».

Точность и надежность

Пользователи должны проверять всю информацию из ChatGPT. Это потому что ChatGPT не несет ответственности за предоставление точной информации., актуальный контент. Согласно разделу «Отказ от гарантий», пользователь берет на себя все риски, связанные с точностью, качество, надежность, безопасность и полнота. Поэтому всегда проверяйте факты из ChatGPT; используйте перекрестные ссылки, проверяйте обновления и проверяйте точность у экспертов. Владельцы бизнеса могут столкнуться с правовыми или репутационными последствиями, если они не проверят точность контента ChatGPT перед публикацией. 

Безопасность и конфиденциальность

ChatGPT собирает информацию из входных данных, включая персональные данные. для потенциального обучения своих моделей (согласно Политике конфиденциальности). Пользователь может отказаться. Ситуация меняется, если данные отправляются через соединения API (ChatGPT Enterprise, Team и т. д.); это потому, что ChatGPT не использует данные, полученные от корпоративных клиентов. для обучения моделей. ChatGPT имеет меры безопасности, но не предусматривает явной ответственности за нарушение безопасности. Все зависит от региональных законов. 

Применение

Пользователи ChatGPT владеют своим входным и выходным контентом; поэтому пользователи должны убедиться, что контент не нарушает никаких законов. Пользователи не могут утверждать, что контент создан человеком., но вам не обязательно говорить, что он сгенерирован ИИ. Пока пользователи соблюдают региональные законы и Условия использования, контент ChatGPT может использоваться в коммерческих целях, в социальных сетях, для платной рекламы и других каналах. Рекомендуется проверять факты, делать ссылки и соблюдать законы перед публикацией контента из ChatGPT. 

Ни в Политике конфиденциальности, ни в Условиях не указано, был ли инструмент ИИ DeepSeek обучен на материалах, защищенных авторским правом. Более того, они также не дают никаких гарантий, что результаты не будут нарушать чьи-либо авторские права. В Условиях использования DeepSeek указано, что пользователи сохраняют права на свои входы (подсказки), но это не обязательно означает, что они изначально защищены авторским правом, поэтому пользователи должны принять меры, чтобы убедиться, что то, что они используют в качестве подсказок, не является чьей-либо интеллектуальной собственностью.

В Условиях также прямо указано, что пользователь несет ответственность за все входы и соответствующие выходы, поэтому, имея это в виду, пользователи должны самостоятельно проверить их, обратившись за юридической консультацией и/или используя базы данных по авторским правам. Например, Публичный каталог Бюро авторских прав США позволяет пользователям искать зарегистрированные произведения в США, в то время как Обратный поиск изображений Google помогает проверить, было ли изображение ранее опубликовано или защищено авторским правом.

Точность и надежность

В Условиях использования DeepSeek указано, что выходные данные генерируются искусственным интеллектом и поэтому могут содержать ошибки и/или упущения. конкретно относится к медицинским, юридическим и финансовым вопросам что пользователи могут спросить DeepSeek, и как результаты DeepSeek не являются советом. Но в более широком смысле, это говорит то же самое о «профессиональных вопросах», что может быть чем угодно — от маркетинга и исследований до технологий и образования и далее — и что результаты не 'представляют мнение любой профессиональная сфера. Поэтому пользователи должны самостоятельно проверять точность всех выходных данных DeepSeek.

Безопасность и конфиденциальность

Политика конфиденциальности DeepSeek поясняет, что вводимые пользователем данные обрабатываются для создания выходных данных, а также для улучшить сервис DeepSeek. Это включает «обучение и совершенствование [их] технологий». Поэтому пользователям следует проявлять осторожность при вводе конфиденциальной информации, и хотя DeepSeek имеет «коммерчески разумный' меры по защите данных и информации, используемых в качестве входных данных, не дают никаких абсолютных гарантий. Условия DeepSeek гласят, что они не публикуют входные или выходные данные на публичных форумах, но некоторые могут быть переданы третьим лицам.

Применение

Любой контент, который пользователи генерируют через DeepSeek, может быть использован в коммерческих целях, но из-за серых зон вокруг плагиата и точности, пользователи должны предпринять шаги для проверки контента перед его использованием таким образом. Условия обслуживания DeepSeek не ссылаются на какие-либо ограничения относительно того, где в мире пользователи могут публиковать этот контент, но они четко указывают, что пользователи должны объявить его сгенерированным искусственным интеллектом, «чтобы предупредить общественность об синтетической природе контента».

Canva не обязана по закону раскрывать свои источники данных для обучения. Поэтому мы не знаем, используются ли материалы, защищенные авторским правом. Пользователь владеет всем входным и выходным контентом. (не Canva), но Canva может использовать этот контент для улучшения своих услуг. 

Точность и надежность

Канва медведи не несем ответственности за точность содержания. Пользователь всегда должен проверять факты. 

Безопасность и конфиденциальность

Canva использует входной контент для обучения своей модели, Это Пользователь несет ответственность за избежание использования конфиденциальной или личной информации для ввода данных.. Canva пытается фильтровать такие входные данные для обучения модели, но нет никаких гарантий. Инструмент искусственного интеллекта Canva не несет ответственности за проблемы безопасности, вызванные пользователем.

Применение

Пользователи Canva могут использовать сгенерированный контент для коммерческих целей. Есть Условия, хотя, как и не публиковать вводящее в заблуждение содержание. Компания имеет список запрещенных предметов, в разделе под названием «Будь хорошим человеком».

Подобно ChatGPT, DALL-E не объявляет источники для обучения своей модели. Однако, если вы найдете контент, защищенный авторским правом, вы может подать иск на удаление. Трудно проверить, нарушает ли DALL-E авторские права, поскольку ни одно законодательство не требует от DALL-E раскрывать свои источники данных. Ввод данных пользователем, согласно Условиям, может быть использован для обучения модели DALL-E — даже если это контент, защищенный авторским правом. Пользователь может отказаться от этого.  

DALL-E пользователи владеют входным и выходным контентом (не DALL-E), но это не означает, что у пользователя есть авторские права на этот контент. Также пользователи не могу утверждать, что контент DALL-E создан человеком.

Точность и надежность

Медведи DALL-E не несем ответственности за неточное содержание. Его Условия передают всю ответственность пользователю. Эти обязательства включают надежность, точность, качество, безопасность и полноту контента. Поэтому перед публикацией пользователи всегда должны использовать перекрестные ссылки, просматривать обновления, проверять факты и консультироваться с экспертами, поскольку публикация ложной информации может привести к репутационным или юридическим последствиям. 

Безопасность и конфиденциальность

Политика конфиденциальности и Условия и положения DALL-E никогда не рассматривают ответственность в случае нарушения безопасности. Однако DALL-E имеет меры безопасности. Кто несет ответственность в случае взлома, зависит от региональных законов.

DALL-E собирает данные пользователя для обучения модели, даже персональные данные, но вы можете отказаться от этого. Однако с API DALL-E обрабатывает входные данные по-другому; он не использует данные бизнес-пользователей для обучения своих моделей

Применение

Команда пользователь владеет входным и выходным контентом DALL-E; они также должны гарантировать, что контент не нарушает никаких законов или Условий DALL-E. Вы не можете утверждать, что контент DALL-E создан человеком., но и не обязательно говорить, что он создан искусственным интеллектом. 

Вы можете использовать DALL-E в коммерческих целях, если вы соблюдаете все законы и Условия DALL-E. Правила могут меняться, но на момент написания статьи пользователи могут публиковать контент DALL-E в социальных сетях, в рекламе и на других каналах. Пользователи всегда должны делать надлежащие ссылки и проверять точность фактов, чтобы не нарушать какие-либо законы.

Bing не обязан делиться источниками обучения данных, что делает очень сложным выяснение того, использует ли Bing AI непреднамеренно контент, защищенный авторским правом. Хотя это сложно определить, пользователи могут предъявлять претензии к контенту, защищенному авторским правом. В Соглашении об услугах Microsoft говорится, что Bing AI использует вводимые и выводимые пользователем данные для улучшения своей модели, но нет никаких формальных мер для предотвращения кражи интеллектуальной собственности.

Команда Соглашение об обслуживании гласит, что пользователи предоставляют Microsoft всемирную и безвозмездную лицензию на интеллектуальную собственность на использование вашего контента.. Кроме того, Bing/Microsoft использует вводимые пользователем данные для обучения моделей ИИ.

Точность и надежность

Microsoft не дает никаких гарантий относительно точности или актуальности контента. из его служб ИИ. Поэтому вам следует проверять все факты из инструментов ИИ Microsoft, особенно если вы владелец бизнеса, который хочет избежать любых репутационных и юридических последствий. 

Безопасность и конфиденциальность

Инструменты искусственного интеллекта Microsoft (включая искусственный интеллект Bing) использовать личные и конфиденциальные данные пользователей для обучения своих моделей. Его Соглашение об обслуживании не распространяется на контент, создаваемый ИИ; вместо этого он пытается переложить всю ответственность за контент ИИ на пользователя. Microsoft также не несет никакой ответственности для своих клиентов, которые соблюдают правила конфиденциальности и безопасности. Короче говоря, если ваши данные будут взломаны при использовании Bing AI, это ваша проблема, а не Microsoft.  

Применение

Microsoft не претендует на право собственности на пользовательский контент, но оно не регулирует конкретно контент, созданный ИИ, где право собственности неопределенно. Соглашение об услугах позволяет людям использовать контент в коммерческих целях, с некоторыми существенными оговорками: вы должны признать, что контент, созданный ИИ, не содержит человеческого творчества, поэтому он не может быть заявлен как интеллектуальная собственность; вы также не должны нарушать права интеллектуальной собственности других лиц. Короче говоря, вы не можете использовать интеллектуальную собственность других лиц, но все, что вы делаете с помощью Bing, вероятно, не является вашей собственной интеллектуальной собственностью.

Quillbot имеет нет обязательств раскрывать источники, которые он использует для обучения моделей. Однако компания, что интересно, пытается урегулировать одну уникальную ситуацию: что, если источником обучения модели является вывод ИИ? Quillbot по сути пытается минимизировать потенциал для вывода, защищенного авторским правом, но заявляет, что все еще существует вероятность, что вывод защищен авторским правом, если пользователи вводят контент, защищенный авторским правом. Чтобы сделать ситуацию еще более запутанной, Quillbot пытается охватить все области, заявляя, что пользователи предоставляют Quillbot неограниченную, сублицензируемую лицензию, а также заявляя, что пользователи владеют всеми их выводами. 

Точность и надежность

Медведи-куилботы не несет ответственности за точность и надежность. Пользователи должны быть очень осторожны и проверять все факты, полученные от Quillbot. 

Безопасность и конфиденциальность

Quillbot имеет меры по защите конфиденциальности пользователей, но он все равно может в конечном итоге обрабатывать персональные данные. Существуют специальные меры защиты конфиденциальности детей. Ответственность за потерю данных в результате взлома рассматривается в каждом конкретном случае. Quillbot заявляет, что пользователь должен предпринять шаги для предотвращения взлома своих персональных данных, и что Quillbot имеет элементы защиты данных. 

Применение

Пользователи Quillbot могут публиковать созданный контент в коммерческих целях, но вам, возможно, придется соблюдать некоторые правила, например, не публиковать вредоносный или вводящий в заблуждение контент. Условия использования не говорите, что вам нужно объявить, что его контент сгенерирован ИИ. Короче говоря, пользователь может публиковать контент, созданный Quillbot при условии, что это не нарушает никаких законов или прав. 

Pixlr не раскрывает свои источники обучения моделей ИИ, поскольку у них нет юридических обязательств делать это. В его Условиях указано, что пользователь владеет контентом, но пользователи также предоставить Pixlr лицензию на использование контента. Это попытка минимизировать использование контента, защищенного авторским правом. 

Точность и надежность

Pixlr не несет ответственности за неточности. в его контенте, сгенерированном ИИ. Пользователи должны быть осторожны и проверять все факты от Pixlr. 

Безопасность и конфиденциальность

Pixlr принимает пользовательские данные для обучения модели ИИ. Он перекладывает на пользователя бремя быть осторожным при вводе данных личная или конфиденциальная информация. Pixlr отказывается от своей ответственности за фильтрацию некоторой информации из своих обучающих данных, хотя он использует некоторые фильтры для блокировки личной или конфиденциальной информации. Pixlr утверждает не несем ответственности за проблемы безопасности, вызванные действиями пользователей

Применение

Пользователи могут публиковать созданный с помощью ИИ контент, созданный через Pixlr, в коммерческих целях (хотя применяются некоторые условия). Условия не требуют от вас заявлять, что что-либо сгенерировано ИИ. Однако пользователи все равно несут ответственность за нарушение прав или законов. 

Середина пути пользователи предоставляют компании права на все активы, созданные через нее, но пользователь также владеет всеми активами. Существуют исключения, например, вы не можете претендовать на право собственности, если вы только что увеличил изображение от оригинального создателя.

Точность и надежность

Midjourney не несет ответственности за надежность и точность его содержания. Поэтому пользователи должны проявлять особую осторожность при проверке фактов и проверке надежности. 

Безопасность и конфиденциальность

Midjourney обучает свою модель с помощью пользовательских данных, даже если они включают личные или конфиденциальные данные. Midjourney утверждает, что пользователь должен быть осторожен с конфиденциальными данными, так что это не его проблема. Компания пытается отфильтровывать определенную информацию для обучения модели, но это не обязательно. Midjourney не несет ответственности за проблемы безопасности, которые могут возникнуть из-за действий пользователя. 

Применение

Пользователи Midjourney могут публиковать сгенерированный контент в коммерческих целях. Некоторые условия, такие как требование подписки на Pro-версию если компания зарабатывает более 1 миллиона долларов в год, применяются. На момент написания статьи пользователи не обязаны заявлять, что что-либо сгенерировано ИИ из Midjourney, хотя законодательство находится в разработке, чтобы изменить это. Пользователи, как правило, могут использовать любой контент Modjourney, если он не нарушает никаких прав или законов. 

Clipchamp — это продукт Microsoft, поэтому он не заявляет об обязательствах делиться источниками данных для обучения модели. Поэтому трудно сказать, использует ли инструмент ИИ непреднамеренно данные, защищенные авторским правом. Кто-то должен определить нарушение авторских прав, чтобы подать иск, что маловероятно. В Соглашении об услугах Microsoft говорится: он может использовать пользовательские входы и выходы для улучшения услуг, и Microsoft не регулирует вопросы интеллектуальной собственности. Также, пользователи предоставляют Microsoft всемирную, безвозмездную лицензию на интеллектуальную собственность

Точность и надежность

Клипчамп и Microsoft не гарантирует ничего в отношении точности или своевременности своих инструментов ИИ, поэтому пользователи должны проверять все факты перед публикацией. Это особенно актуально для владельцев бизнеса, которые могут столкнуться с правовыми и репутационными последствиями. 

Безопасность и конфиденциальность

Клипчамп и Microsoft использовать персональные и конфиденциальные данные для обучения модели. Microsoft пытается переложить ответственность за все проблемы с контентом на пользователя. То же самое касается взлома и нарушений безопасности.; если что-то случится, ответственность за это несет пользователь. 

Применение

Clipchamp и Microsoft воздерживаются от регулирования контента, создаваемого искусственным интеллектом, никогда не заявляя, что Microsoft владеет контентом. Технически Microsoft утверждает, что пользователь владеет им, но без прав интеллектуальной собственности. Пользователь может публиковать контент Clipchamp в коммерческих целях с двумя условиями: вы не можете нарушать права интеллектуальной собственности или заявлять, что у вас есть права интеллектуальной собственности на созданный контент. 

Лука Условия использования заявляют, что компания не имеет обязательств по предоставлению данных источников обучения, поэтому они этого не делают. Пользователи несут все риски при использовании контента, созданного Looka. 

Точность и надежность

Looka не несет ответственности за точность и надежность результатов, получаемых с помощью ее инструментов искусственного интеллекта. Пользователи должны проверять все факты и проверить на надежность. 

Безопасность и конфиденциальность

Looka использует входные данные — даже потенциально личные и конфиденциальные — для обучения своей модели. поэтому пользователь несет ответственность за неиспользование этого типа данных при вводе данных. Looka пытается фильтровать такие данные, но они утверждают, что им это не нужно. Кроме того, все вопросы безопасности ложатся на пользователя. 

Применение

Пользователи Looka могут использовать контент, созданный с помощью искусственного интеллекта, в коммерческих целях, но им может потребоваться соблюдать условия или платить пошлину. Пользователи не обязаны маркировать свой сгенерированный контент как созданный ИИ. Пользователи должны избегать публикации сгенерированного контента, который нарушает права или законы. 

Невозможно сказать, есть ли Speechify обучает свою модель на защищенных авторским правом материалах. Мы просто не знаем. Условия Speechify рекомендуют не использовать защищенные авторским правом материалы для входных данных, что предполагает, что некоторые выходные данные могут содержать защищенные авторским правом данные. Speechify утверждает, что не несет за это никакой ответственности

Точность и надежность

Speechify, согласно его Условия использования, не несет ответственности за точность своих выходов. Пользователи всегда должны проверять своевременность, надежность и точность с помощью Speechify. 

Безопасность и конфиденциальность

Speechify перекладывает всю ответственность на пользователя, когда дело доходит до ввода конфиденциальных или персональных данных. Инструмент использует входные данные для обучения моделей, поэтому пользователям следует быть осторожными. Speechify не обязательно фильтрует конфиденциальные или персональные данные, но он пытается это делать с помощью некоторых фильтров. Вся ответственность за проблемы безопасности передается пользователю. 

Применение

Пользователи Speechify могут использовать выходы для коммерческих целей, с некоторыми условиями, такими как необходимость подписки или получения лицензии. Пользователи не нужно заявлять, что контент Speechify создан искусственным интеллектомОднако пользователи Speechify ни при каких обстоятельствах не должны нарушать права или законы при публикации результатов Speechify. 

Капвинг Условия возлагают всю ответственность за интеллектуальную собственность и точность на пользователя.. Все пользователи предоставляют Kapwing неисключительную лицензию, но пользователи сохраняют право собственности на контент. Kapwing ничего не раскрывает о том, использует ли он входные данные для обучения модели. 

Точность и надежность

Kapwing возлагает всю ответственность за точность на пользователя, особенно любые правовые и репутационные последствия.

Безопасность и конфиденциальность

Пользователи Kapwing берут на себя все риски, когда решают ввести конфиденциальную информацию в его инструмент ИИ. Он также не дает никаких гарантий или ответственности за безопасность сервиса.

Применение

Вы можете публиковать контент Kapwing в коммерческих целях, но Kapwing советует пользователям быть осторожными. В их условиях не говорится, должны ли пользователи заявлять, что вывод Kapwing сгенерирован искусственным интеллектом.

Otter.ai заявляет, что не допускает использования в своих сервисах материалов, нарушающих авторские права, однако проверить это утверждение сложно. Пользователи сохраняют право собственности и авторские права на вводимые данные. и посты в Otter.ai, но Otter.ai говорит пользователи несут ответственность для не вводить ранее защищенный авторским правом контент. Otter.ai также может использовать входные данные для машинного обучения.

Точность и надежность

Otter.ai исключает себя из ответственности относительно точности и надежности, поэтому пользователи должны всегда проверять контент. Использование фактически вводящей в заблуждение или неверной информации может вызвать правовые или репутационные проблемы для пользователя. 

Безопасность и конфиденциальность

Все риски раскрытия конфиденциальной информации на Otter.ai принадлежит пользователю. 

Применение

Пользователи могут публиковать с коммерческими целями поскольку пользователи являются владельцами контента из Otter.ai. При этом, контент, созданный ИИ, не имеет четких правил собственности. Otter.ai также заявляет его транскрибированные заметки можно искать и делиться.

PhotoRoom может принимать пользовательские входы и выходы для обучения модели, но есть ограниченная информация о том, делает ли сервис это или нет. Условия PhotoRoom напоминают пользователям избегать подачи контента, защищенного авторским правом. Пользователи несут всю ответственность для этого. 

Точность и надежность

PhotoRoom не несет ответственности за точность или надежность контента, созданного с помощью искусственного интеллекта. Пользователи должны провести собственные проверки, чтобы убедиться в этом.

Безопасность и конфиденциальность

PhotoRoom использует входные данные для обучения своих моделей. Пользователи несут ответственность при вводе конфиденциальной информации. or персональная информация. Служба пытается фильтровать эти типы входных данных, но не заявляет, что это обязательно. Пользователи несут полную ответственность за проблемы безопасности. 

Применение

Содержание PhotoRoom может быть использовано в коммерческих целях, но могут применяться некоторые условия, например, регистрация для подписки. В Условиях указано, что вам не нужно отмечать контент как созданный ИИ. Пользователи могут столкнуться с другими последствиями, если они нарушают права или законы. 

Условия использования

Эта информация предназначена только для общих информационных целей и не должна восприниматься как юридическая консультация. Ecommerce Platforms не несет ответственности за ошибки или упущения. Проконсультируйтесь с подходящим юристом для получения совета и рекомендаций, соответствующих вашим конкретным потребностям и обстоятельствам.

Заключение

Повсеместное распространение искусственного интеллекта делает все более вероятным использование нами инструментов и приложений, основанных на этой технологии, однако многие из нас не могут позволить себе роскошь времени, необходимого для прочтения их положений и условий. 

В 2017 году сеть профессиональных услуг Deloitte обнаружили, что 91% потребителей «охотно принимаю юридические положения и условия, не читая их» — увеличивается до 97% в возрасте от 18 до 34 лет.

Учитывая, сколько положений и условий ИИ мы оценили как низко читаемые, похоже, что Непонятность юридического языка этих документов отпугивает пользователей даже от попыток их понять. 

Мы обратились к профессиональному юристу, который проанализировал для нас документы, но сомнительно, что это необходимо.

Мы надеемся, что это исследование, включая рейтинги читабельности и экспертные знания Джосильды Ндреаж относительно положений и условий, на которые следует обращать внимание, помогут вам сделать выбор в отношении приложений и инструментов ИИ для взаимодействия. 

Методология и источники

Как мы проводили исследование

Начав с исходного списка из примерно 90 инструментов и приложений ИИ, мы сначала собрали юридическую документацию каждого инструмента, от положений и условий до политик конфиденциальности. Затем мы записали длину слов в этих документах и ​​рассчитали их оценку читабельности с помощью системы оценок Флеша-Кинкейда. Затем мы обратились за помощью к юридическому эксперту Джосильде Ндреадж (LLM), которая рассмотрела выборку этих юридических документов и определила ключевые моменты, о которых должны знать пользователи.

Для примерно 30 инструментов ИИ, имеющих доступные версии мобильных приложений, мы провели поиск в Apple App Store и записали их метки конфиденциальности, показанные в их листингах. Они разделены на 14 категорий данных, которые могут быть собраны у пользователей, и для какой цели. Чтобы вычислить, какие приложения ИИ собрали больше всего данных, мы измерили, по скольким из 14 возможных категорий эти приложения отслеживали своих пользователей. 

Важно отметить, что эти 14 категорий далее делятся на отдельные точки данных. Например, «Контактная информация» включает пять точек данных: «Имя», «Адрес электронной почты», «Номер телефона», «Физический адрес» и «Другая контактная информация пользователя». Чтобы узнать, какие приложения собирают больше всего отдельных точек данных, взгляните на последний столбец в каждой из таблиц.

Некоторые приложения будут собирать больше индивидуальных точек данных, чем те, которые находятся выше в рейтинге. Это связано с тем, что наша методология ранжирования учитывает, какие приложения собирают данные по большинству категорий в целом, предлагая более широкую и, следовательно, более «полную» картину пользовательских данных, а не глубину информации, которую они собирают в каждой категории. 

Источники

Запросы на исправление

Мы периодически обновляем это исследование.

Если вы являетесь владельцем любого из инструментов ИИ, включенных в это исследование, и вы хотели бы оспорить информацию на этой странице, мы готовы обновить ее при условии рассмотрения предоставленных вами доказательств. При обращении к нам по этому поводу мы любезно просим: 

  • деловые документы, подтверждающие вашу легитимность (например, свидетельство о регистрации или регистрационные документы) 
  • информация на этой странице, которую вы считаете устаревшей (пожалуйста, укажите конкретную информацию)
  • как его следует обновлять и почему, со ссылками на документацию, подтверждающую это (например, поправки к Условиям обслуживания)

пожалуйста, свяжитесь с нами в [электронная почта защищена] с темой письма: «Запрос на исправление: исследование инструментов ИИ», а также название инструмента ИИ, по поводу которого вы к нам обращаетесь.

Богдан Рэнца

Богдан Ранча — соучредитель Ecommerce-Platforms.com и ведущий куратор ecomm.design, выставки лучших сайтов электронной коммерции. За 12 лет работы в сфере цифровой коммерции он накопил обширные знания и обладает острым взглядом на великолепные онлайн-розничные продажи. Как исследователь технологий электронной коммерции Богдан тестирует и делает обзоры различных платформ и инструментов дизайна, таких как Shopify, Figma и Canva и предоставляет практические советы владельцам магазинов и дизайнерам.