Hinter dem Kleingedruckten: KI-Apps und Datenschutz verstehen

Wenn Sie einen Dienst über einen Link auf dieser Seite abonnieren, verdient Reeves and Sons Limited möglicherweise eine Provision. Siehe unsere Ethikerklärung.

Künstliche Intelligenz ist schnell zum Zeitgeist geworden – die ethischen Fragen zu diesem Thema sind jedoch nach wie vor ungelöst. Wie viele Benutzer sind sich völlig im Klaren darüber, wofür sie sich anmelden?

Indem es sich auf die Geschäftsbedingungen und Datenschutzrichtlinien der beliebtesten KI-Tools und Apps konzentriert, erläutert Ecommerce Platforms alles, was Sie über die Verwendung dieser Tools für Ihre alltäglichen Geschäftsanforderungen wissen müssen.

Wir haben die Daten und persönlichen Informationen analysiert, die diese Tools sammeln (und zu welchem ​​Zweck), um Ihnen dabei zu helfen, festzustellen, welche AI-Werkzeuge, Software und Plattformen sind für Ihren Verwendungszweck am besten geeignet. Wir haben auch einen Rechtsexperten konsultiert, um den Fachjargon aufzuschlüsseln hinter den Geschäftsbedingungen dieser Tools.

Wir haben die Datenschutzkennzeichnungen des Apple App Store für rund 30 verfügbare mobile App-Versionen beliebter KI-Tools analysiert, um herauszufinden, welche Ihre Daten erfassen und warum. 

Die von den Benutzern gesammelten Daten (und deren Zweck) werden in 14 Kategorien unterteilt. Dadurch lässt sich feststellen, welche Apps die meisten Benutzerdaten sammeln und verfolgen.

Weitere Einzelheiten finden Sie im Abschnitt „Methodik“ am Ende dieser Seite.

Welche Daten sammeln diese KI-Apps?

Die in dieser Untersuchung bewerteten KI-Tools erfassen Daten unterschiedlicher Art. Einige davon konzentrieren sich auf persönliche Daten über Benutzer – von Benutzernamen und Bankdaten bis hin zu ihrer Gesundheit und Fitness und sogar sensiblen Informationen wie Rasse/Ethnie, sexueller Orientierung, Geschlechtsidentität und politischen Meinungen. 

Andere beziehen sich auf von Benutzern erstellte Inhalte (wie E-Mails und Nachrichten, Fotos, Videos und Tonaufnahmen) oder darauf, wie Benutzer mit dem Produkt selbst interagieren, wie etwa ihre Suchverläufe in der App oder welche Werbung sie gesehen haben. Noch unpersönlicher sind die Diagnoseinformationen, die gesammelt werden, um Absturzdaten oder den Energieverbrauch anzuzeigen.

Warum sammeln diese KI-Apps Daten?

Es gibt verschiedene Gründe, warum Apps Daten sammeln, Einige davon können als gerechtfertigter angesehen werden als andere — Beispielsweise können biometrische Daten oder Kontaktdaten verwendet werden, um die Identität des Benutzers zu authentifizieren.

Ebenso kann der Zugriff auf bestimmte Daten erforderlich sein, damit eine App ordnungsgemäß funktioniert, beispielsweise um Betrug zu verhindern oder Skalierbarkeit und Leistung zu verbessern.

Genauer gesagt benötigen Messaging-Apps Zugriff auf Kontakte, Telefonkameras und Mikrofone, um Anrufe zu ermöglichen, während für Taxi- oder Liefer-Apps die Geolokalisierung erforderlich ist.

Zu den weniger wichtigen Gründen für die Datenerfassung gehören Werbung oder Marketing durch den Entwickler der App (zum Beispiel um Ihren Benutzern Marketingnachrichten zu senden); Ermöglichung von Werbung von Drittanbietern (zum Beispiel durch die Verfolgung von Daten aus anderen Apps, um gezielte Werbung an den Benutzer zu richten); und Analyse des Benutzerverhaltens zu Zwecken wie der Beurteilung der Wirksamkeit vorhandener Funktionen oder der Planung neuer Funktionen.

Hey mobile user 👋 The tables below can be scrolled horizontally to see all the data, but this page definitely looks better on Desktop.

KI-Apps, die Ihre Daten sammeln und an Drittanbieter weitergeben

Spaltenüberschriften mit Schaltflächen sind sortierbar.
KI-App % der Daten werden mit anderen geteilt Browserverlauf Kontakt Identifiers Verleih Andere Daten Käufe Search History Nutzungsdaten Anzahl der erfassten Datenpunkte
canva 36% 2 2 1 1 2 8
Duolingo 36% 2 1 1 1 2 7
Google Assistant 21% 1 1 1 3
Bing 14% 1 1 2
Pixai 14% 1 1 2
Wombe 14% 1 1 2
ChatGPT 7% 1 1
Genie AI 7% 1 1
Linsen 7% 1 1
Sprechen Sie 7% 1 1
Starryai 7% 1 1

Von allen KI-Apps, die in unsere Untersuchung einbezogen wurden, Canva, ein Grafikdesign-Tool, sammelt die meisten Daten seiner Benutzer für Werbezwecke Dritter — rund 36 %. Die fünf Apps, die zu diesem Zweck am wenigsten Daten sammeln, kommen dagegen auf knapp über 7 %.

Zu den Daten, die die Canva-App von Ihnen sammelt und an Dritte weitergibt, gehören Ihr Suchverlauf, Ihr Standort, Ihre E-Mail-Adresse und andere in der obigen Tabelle aufgeführte Informationen. 

Dicht gefolgt von Canva ist die spielerische Sprachlern-App Duolingo (~36%), Google Assistant (~21%) und Microsofts Bing (~14%) — alle auch Ihre Daten an Dritte weitergeben

Von den fünf Apps, die am wenigsten Daten sammeln, nur Starryai (ein Bildgenerator) beschränkt sich auf die Weitergabe von Nutzungsdaten.

KI-Apps, die Ihre Daten zu ihrem eigenen Vorteil sammeln

Spaltenüberschriften mit Schaltflächen sind sortierbar.
Applikation % der Daten werden zum eigenen Nutzen der App gesammelt Browserverlauf Kontakt Identifiers Verleih Käufe Search History Nutzungsdaten Anzahl der erfassten Datenpunkte
canva 43% 2 2 1 1 1 2 9
Facetune 36% 2 4 2 2 4 14
Amazon Alexa 36% 4 2 1 1 2 10
Google Assistant 36% 1 2 2 1 2 8
Fotoraum 29% 1 1 1 1 4
Duolingo 21% 2 1 1 4
Starryai 14% 2 1 3
Bing 14% 1 1 2
Linsen 14% 1 1 2
Otter 7% 2 2
Essen 7% 1 1
Poe 7% 1 1
Pixai 7% 1 1
Sprechen Sie 7% 1 1
Wombe 7% 1 1

Canva ist auch führend in der Liste der KI-Apps, die Benutzerdaten für ihre eigenen Werbe- oder Marketingzwecke sammeln. Zu diesem Zweck sammelt Canva rund 43 % der Daten ihrer Nutzer.

Auf dem dritten Platz Amazon Alexa kassiert 36 % Ihrer Daten für denselben Zweck. Dazu gehören Ihre E-Mail-Adresse, Postanschrift, Telefonnummer, Suchverlauf und Kaufhistorie sowie fünf weitere Datenpunkte. Google Assistant sammelt und gibt aus diesem Grund den gleichen Prozentsatz an Daten weiter, allerdings über acht einzelne Datenpunkte hinweg, im Vergleich zu den zehn, die Amazon Alexa sammelt.

Die Der Text-to-Speech-Sprachgenerator Speechify gehört zu den Apps, die am wenigsten Daten sammeln. Laut den Datenschutzhinweisen im Apple App Store sammelt Speechify nur ein Datenpunkt zu seinem eigenen Vorteil; Ihre Geräte-ID.

KI-Apps, die Ihre Daten für beliebige Zwecke sammeln

Spaltenüberschriften mit Schaltflächen sind sortierbar.
Applikation % der erfassten Daten Browserverlauf Kontakt Kontakt Diagnose Finanzinformationen Gesundheit & Fitness Identifiers Verleih Andere Daten Käufe Search History Sensible Info Nutzungsdaten Benutzerinhalte Anzahl der erfassten Datenpunkte
Amazon Alexa 93% 24 4 9 3 4 10 8 4 5 5 4 13 23 116
Google Assistant 86% 4 8 2 6 1 8 5 2 1 5 8 8 58
Duolingo 79% 10 1 7 1 12 4 4 6 1 7 7 60
canva 64% 11 3 1 8 5 4 5 10 6 53
Otter 57% 7 3 5 7 2 3 2 11 40
Poe 57% 2 2 3 6 2 3 2 5 25
Facetune 50% 6 8 18 8 8 14 2 64
Bing 50% 1 2 6 3 3 2 3 20
DeepSeek 50% 2 3 4 1 1 2 3 16
Mem 43% 6 4 6 6 6 4 32
ELSA Sprich 43% 2 6 6 3 3 3 23
Fotoraum 43% 2 1 9 3 4 1 20
Trint 43% 1 2 1 4 1 2 11
ChatGPT 36% 4 8 5 7 2 26
Ratlosigkeit KI 36% 6 6 2 1 6 21
1 / 2

Alle KI-Modelle erfordern eine Form des Trainings durch maschinelles Lernen. Das bedeutet, dass Sie brauchen Daten.

Wenn wir wollen, dass KI-Tools besser und nützlicher werden, kann unsere Privatsphäre als notwendiger Kompromiss gegenüber der Bereitstellung dieser Daten angesehen werden.

Doch die Frage, wo die Grenze zwischen Nutzen und Ausbeutung gezogen werden sollte und warum, ist eine heikle Frage.

Angesichts seiner aktuellen Bekanntheit lohnt es sich, DeepSeek näher zu betrachten.. In der Auflistung im Apple App Store heißt es, dass DeepSeek keine Benutzerdaten zum eigenen Vorteil sammelt (beispielsweise für DeepSeeks eigenes Marketing und Werbung) oder um sie an Dritte weiterzugeben.

Aber es ist erwähnenswert, dass ihr In der Datenschutzrichtlinie heißt es anders (dazu später mehr). 

Die Die DeepSeek-App selbst sammelt 50 % der Daten ihrer Benutzer, das DeepSeeks Analytics- und App-Funktionalität bereitstellt. Zum Vergleich: Die ChatGPT-App sammelt 36 %.

Einige Medien berichten von Sicherheitsrisiken im Zusammenhang mit DeepSeeks chinesischem Ursprung (sowohl in Bezug auf die Datenerfassung als auch auf die mögliche Verbreitung von Fehlinformationen) und der Unterbietung der US-Konkurrenten. Beides dürfte kaum durch Allgemeine Geschäftsbedingungen und Datenschutzrichtlinie von DeepSeek, was etwa dauern würde 35 Minuten zum Lesenund werden bewertet als „sehr schwierig“ auf der Flesch-Kincaid-Lesbarkeitsskala.

Unabhängig davon, wie Ihre Daten verwendet werden, Amazon Alexa sammelt mehr Daten seiner Benutzer als jede andere KI-App in diese Forschung einbezogen. Insgesamt werden 93% Ihrer Daten (oder 116 einzelne Kennzahlen, hauptsächlich Kontaktdaten, Benutzerinhalte und Nutzungsdaten).

Google Assistant kommt als nächstes, sammeln 86%, Gefolgt von Duolingo, die sammelt 79%.

Am anderen Ende der Skala Der KI-Bildgenerator Stable Diffusion sammelt keine Daten. Dies geht aus den Datenschutzhinweisen im Eintrag im Apple App Store hervor.

Zwar ist es wahr, dass alle generative KI Für das Training von Modellen sind große Datenmengen erforderlich. Dieses Training findet vor der Entwicklung konkreter Apps statt. In den meisten Fällen sind die App-Entwickler nicht Eigentümer der von ihnen verwendeten KI-Modelle. Die Erfassung von Benutzerdaten bezieht sich daher auf die Funktionalität der App selbst. Dies könnte erklären, warum zu einigen der von uns untersuchten Apps in der obigen Tabelle keine Informationen vorhanden sind.

Navigieren durch die Geschäftsbedingungen hinter KI-Tools

Schauen wir uns nun das an rechtliche Dokumentation hinter verschiedenen KI-Tools, um herauszufinden wie leicht oder schwer sie zu lesen sind. Dies basiert auf dem Flesch-Kincaid-Lesetest für die jeweilige Lesestufe.

Dieses System gleicht Texte den Lesestufen amerikanischer Schulen (von der fünften bis zur zwölften Klasse) sowie College, College Graduate und Professional ab. Texte der sechsten Klasse werden als „Konversationsenglisch für Verbraucher“ definiert, während Texte für Professionals als „extrem schwer zu lesen“ beschrieben werden.

Je niedriger der Lesbarkeitswert, desto schwieriger ist der Text zu lesen.

Spaltenüberschriften mit Schaltflächen sind sortierbar.
Clipchamp 3 Stunden 16 Minuten 27.2 🤯🤯🤯🤯🤯🤯🤯
Bing 2 Stunden 20 Minuten 35.4 🤯🤯🤯🤯🤯
veed.io 2 Stunden 15 Minuten 37.9 🤯🤯🤯🤯🤯
Facetune 2 Stunden 4 Minuten 34.4 🤯🤯🤯🤯🤯🤯
Die B.AI 1 Stunden 47 Minuten 31.4 🤯🤯🤯🤯🤯🤯
Otter 1 Stunden 11 Minuten 32.4 🤯🤯🤯🤯🤯🤯
Jasper 1 Stunden 9 Minuten 22.0 🤯🤯🤯🤯🤯🤯🤯🤯
Gamma 1 Stunden 6 Minuten 30.9 🤯🤯🤯🤯🤯🤯
Sprechen Sie 1 Stunden 6 Minuten 35.0 🤯🤯🤯🤯🤯🤯
Landebahn 1 Stunden 2 Minuten 28.3 🤯🤯🤯🤯🤯🤯🤯
1 / 9

Im Jahr 2023 wird die britische Versicherungsgesellschaft Superscript befragte die Eigentümer von 500 kleinen und mittleren Unternehmen (KMU) um herauszufinden, was am meisten Zeit in Anspruch nimmt.

Bezeichnenderweise liegt „ausreichend Schlaf“ – entscheidend für die körperliche und geistige Gesundheit sowie die kognitiven Funktionen – auf Platz drei, noch hinter „lange Arbeitszeiten“ und „Steuererklärungen erledigen“.

Ein Drittel der Befragten gab an, dass es nicht möglich sei, alle administrativen Aufgaben während der Arbeitszeit zu erledigen, und sagte sie brauchte täglich vier Stunden mehr, um alles zu schaffen.

Dies vermittelt einen Eindruck davon, wie anstrengend es sein kann, ein KMU zu führen, und dass die Zeitaufwand zum Lesen der Allgemeinen Geschäftsbedingungen hinter den Werkzeugen, auf die sie sich verlassen, ist nicht leicht zu bekommen.

In diesem Zusammenhang sind die 40-minütigen Lesezeiten der AGB für Transkriptionstools wie Otter, Trint und Descript von großer Bedeutung. 

Und das setzt voraus, dass es möglich ist zu verstehen die am schwersten zu lesenden Allgemeinen Geschäftsbedingungen. Aus diesem Grund haben wir die Expertise eines Rechtsexperten eingeholt.

Josilda Ndreaj, ein Rechtsexperte und zugelassener Anwalt, hat im Auftrag von Fortune 500-Kunden komplexe Rechtsfragen bearbeitet und verschiedene Unternehmen beraten.

In jüngerer Zeit hat sie als unabhängige Beraterin Schwerpunkt im Bereich Geistiges Eigentumsrecht an der Schnittstelle von Blockchain-Technologie und künstlicher Intelligenz.

Josilda Ndreaj (LLM) ist eine Juristin und zugelassene Rechtsanwältin mit Fachkenntnissen im Bereich des geistigen Eigentums (IP).

Ihre Karriere als Rechtsberaterin begann sie in einer renommierten internationalen Anwaltskanzlei, die Fortune-500-Kunden betreute. Hier bearbeitete Josilda komplexe Rechtsangelegenheiten und beriet verschiedene Unternehmen.

Angetrieben von ihrem Interesse an Innovation, Kreativität und neuen Technologien wagte Josilda dann den Schritt in die unabhängige Beratung und konzentrierte sich auf das Recht des geistigen Eigentums, indem sie die Schnittstelle zwischen Blockchain-Technologie und künstlicher Intelligenz abdeckte.

Josilda verfügt über zwei Master-Abschlüsse in Rechtswissenschaften: einen mit Spezialisierung auf Zivil- und Handelsrecht von der Universität Tirana und den anderen mit Schwerpunkt auf geistigem Eigentumsrecht von der Zhongnan University of Economics and Law.

So war Josilda einzigartig positioniert, um eine Auswahl der Rechtsdokumente dieser KI-Tools zu überprüfen, und hebt die wichtigsten Punkte für diejenigen unter uns hervor, die nicht über zwei Master-Abschlüsse in Rechtswissenschaften verfügen.

Ihre Zusammenfassungen sind unten aufgeführt:

Gemini (ehemals Bard) ist nicht verpflichtet, Trainingsquellen offenzulegen, daher können wir nicht überprüfen, ob es mit urheberrechtlich geschütztem Material trainiert wird. Gemini ist nicht von der Haftung für solche Verstöße ausgenommen; wenn ein Urheberrechtsinhaber Anklage erhebt, trägt Gemini eine gewisse Verantwortung. Es ist jedoch wichtig zu beachten, dass Gemini mit dem trainiert wird, was der Benutzer ihm gibt. Aus diesem Grund Gemini erfordert eine Lizenz vom BenutzerWenn der Benutzer damit einverstanden ist, Gemini diese Lizenz zu gewähren, dieser (der Benutzer) jedoch nicht der tatsächliche Eigentümer des Urheberrechts ist, geht die Verantwortung auf den Benutzer über.

Benutzer behalten das Eigentum an ihren Eingaben und Eingabeaufforderungen, aber die Eigentumsverhältnisse bei den Ergebnissen sind komplexer. Gemini macht dies in seinen Bedingungen nicht deutlich. Viele Gesetze erkennen die geistigen Eigentumsrechte von Maschinen nicht an. Es ist jedoch fragwürdig, zu behaupten, dass die Ergebnisse „vom Menschen erzeugt“ seien, selbst wenn der Benutzer Eigentümer der Eingaben ist.

Genauigkeit und Zuverlässigkeit

Seien Sie immer diskret, wenn Sie sich auf Gemini verlassen, um genaue Informationen zu erhalten. In den Servicebedingungen heißt es, dass Genauigkeit nicht automatisch vorausgesetzt werden sollte vom Benutzer. Daher sollten Sie alle von Gemini generierten Inhalte auf ihre Richtigkeit überprüfen. 

Geschäftsinhaber sollten niemals Ergebnisse von Gemini veröffentlichen, ohne sie mit Querverweisen zu versehen, auf Aktualisierungen zu prüfen und die Richtigkeit von Experten überprüfen zu lassen. Andernfalls laufen sie Gefahr, irreführende Informationen zu veröffentlichen, was zu Rufschädigungen oder rechtlichen Konsequenzen führen kann.

Sicherheit und Vertraulichkeit

Google (der Eigentümer von Gemini) stellt in seiner Datenschutzrichtlinie keine Informationen zum Umgang mit vertraulichen Daten zur Verfügung.

Anwendungsbereich

Google gibt in seinen Nutzungsbedingungen keine Auskunft darüber, ob von Gemini generierte Inhalte für kommerzielle Zwecke verwendet werden dürfen. Es erklärt Einschränkungen für Dinge wie geistige Eigentumsrechte aber nichts speziell für KI-generierte Inhalte.

Derzeit ist ChatGPT gesetzlich nicht dazu verpflichtet, öffentlich bekannt zu geben, womit sein Modell trainiert wird. Da es seine Quellen nicht preisgibt, können wir nicht wissen, ob ChatGPT urheberrechtlich geschützte Inhalte liefert oder verarbeitet. Wenn jemand urheberrechtlich geschützte Inhalte von ChatGPT identifiziert, Sie können einen Anspruch geltend machen um diesen Inhalt zu entfernen.

In den Bedingungen von ChatGPT heißt es, dass Benutzereingaben, auch wenn sie urheberrechtlich geschützt sind, wird verwendet, um den Service zu verbessern und das Modell zu trainieren; und der Benutzer kann sich nicht davon abmelden. Die Bedingungen von ChatGPT besagen, dass ein Benutzer ist Eigentümer aller Input- und Output-Inhalte (sofern die Input-Inhalte bereits legal genutzt werden), aber das garantiert nicht, dass der Benutzer das Urheberrecht an diesem Ein- und Ausgabeinhalt besitzt. Darüber hinaus Benutzer können nichts von ChatGPT als „von Menschen erstellt“ ausgeben.

Genauigkeit und Zuverlässigkeit

Benutzer sollten alle Informationen von ChatGPT überprüfen. Das liegt daran, dass ChatGPT übernimmt keine Verantwortung für die Bereitstellung von genauen, aktuelle Inhalte. Gemäß dem Abschnitt „Haftungsausschluss“ der Benutzer übernimmt alle Risiken der Genauigkeit, Qualität, Zuverlässigkeit, Sicherheit und Vollständigkeit. Überprüfen Sie daher immer die Fakten von ChatGPT, führen Sie Querverweise durch, prüfen Sie auf Aktualisierungen und lassen Sie sich auch von Experten auf Richtigkeit prüfen. Geschäftsinhaber müssen möglicherweise mit rechtlichen Konsequenzen oder Reputationsschäden rechnen, wenn sie ChatGPT-Inhalte vor der Veröffentlichung nicht auf ihre Richtigkeit überprüfen. 

Sicherheit und Vertraulichkeit

ChatGPT sammelt Informationen aus Eingaben – einschließlich persönlicher Informationen – um ggf. seine Modelle zu trainieren (gemäß der Datenschutzrichtlinie). Der Benutzer kann sich abmelden. Die Situation ändert sich, wenn Daten über API-Verbindungen (ChatGPT Enterprise, Team usw.) übermittelt werden. Das liegt daran, dass ChatGPT verwendet keine Eingaben von Geschäftskunden um Modelle zu trainieren. ChatGPT verfügt über Sicherheitsmaßnahmen, geht aber nicht explizit auf die Verantwortung für Sicherheitsverletzungen ein. Es hängt alles von den regionalen Gesetzen ab. 

Anwendungsbereich

ChatGPT-Benutzer besitzen ihre Eingabe- und Ausgabeinhalte; die Nutzer müssen daher sicherstellen, dass die Inhalte keine Gesetze verletzen. Benutzer können nicht behaupten, der Inhalt sei von Menschen erstellt worden, aber Sie müssen auch nicht sagen, dass es KI-generiert ist. Solange Benutzer die regionalen Gesetze und die Nutzungsbedingungen einhalten, können ChatGPT-Inhalte für kommerzielle Zwecke, in sozialen Medien, für bezahlte Werbung und andere Kanäle verwendet werden. Es wird empfohlen, dass Sie Fakten überprüfen, Referenzen angeben und sich an Gesetze halten, bevor Sie Inhalte von ChatGPT veröffentlichen. 

Weder die Datenschutzrichtlinie noch die Nutzungsbedingungen geben an, ob das KI-Tool von DeepSeek mit urheberrechtlich geschützten Materialien trainiert wurde. Darüber hinaus bieten sie auch keine Garantie dafür, dass die Ergebnisse nicht gegen das Urheberrecht anderer verstoßen. In den Nutzungsbedingungen von DeepSeek heißt es: Benutzer behalten Rechte an ihren Eingaben (Eingabeaufforderungen), aber das bedeutet nicht unbedingt, dass sie überhaupt urheberrechtlich geschützt sind. Benutzer sollten daher Schritte unternehmen, um sicherzustellen, dass die von ihnen als Eingabeaufforderungen verwendeten Elemente nicht das geistige Eigentum einer anderen Person sind.

Die Bedingungen legen außerdem ausdrücklich fest, dass die Der Benutzer ist für alle Eingaben und entsprechenden Ausgaben verantwortlich, daher sollten Benutzer diese selbst überprüfen, indem sie Rechtsberatung einholen und/oder Copyright-Datenbanken verwenden. Beispielsweise die Öffentlicher Katalog des US Copyright Office ermöglicht die Suche nach registrierten Werken in den USA, während Die umgekehrte Bildersuche von Google hilft zu überprüfen, ob ein Bild bereits veröffentlicht wurde oder urheberrechtlich geschützt ist.

Genauigkeit und Zuverlässigkeit

In den Nutzungsbedingungen von DeepSeek heißt es, dass die Ergebnisse KI-generiert sind und daher Fehler und/oder Auslassungen enthalten können. bezieht sich speziell auf medizinische, rechtliche und finanzielle Fragen die Benutzer DeepSeek fragen können, und warum die Ergebnisse von DeepSeek keine Beratung darstellen. Aber allgemeiner gesagt, sagt dasselbe über „berufliche Probleme“, die praktisch alles sein können – von Marketing und Forschung bis hin zu Technologie und Bildung und darüber hinaus – und dass die Ergebnisse nicht „vertreten die Meinungen von für Berufsfeld.‘ Benutzer sollten daher alle DeepSeek-Ausgaben selbstständig auf ihre Genauigkeit überprüfen.

Sicherheit und Vertraulichkeit

In der Datenschutzrichtlinie von DeepSeek wird erklärt, dass Benutzereingaben verarbeitet werden, um Ausgaben zu generieren, aber auch um den Service von DeepSeek verbessern. Das beinhaltet „Schulung und Verbesserung [ihrer] Technologie“. Benutzer sollten daher bei der Eingabe vertraulicher Informationen vorsichtig sein, und obwohl DeepSeekkommerziell sinnvoll' Maßnahmen zum Schutz der als Eingaben verwendeten Daten und Informationen, bietet jedoch keine absoluten Garantien. In den Bedingungen von DeepSeek heißt es, dass sie keine Eingaben oder Ausgaben in öffentlichen Foren veröffentlichen, aber Einige können an Dritte weitergegeben werden.

Anwendungsbereich

Alle Inhalte, die Benutzer über DeepSeek generieren, können für kommerzielle Zwecke verwendet werden. Aufgrund von Grauzonen in Bezug auf Plagiat und Genauigkeit sollten Benutzer jedoch Schritte unternehmen, um die Inhalte zu überprüfen, bevor sie diese auf diese Weise verwenden. In den Servicebedingungen von DeepSeek wird keine Einschränkung hinsichtlich des Ortes der Veröffentlichung dieser Inhalte durch Benutzer erwähnt. Sie geben jedoch eindeutig an, dass Benutzer deklarieren Sie es als KI-generiert, „um die Öffentlichkeit auf die synthetische Natur des Inhalts aufmerksam zu machen“.

Canva ist gesetzlich nicht dazu verpflichtet, die Quellen seiner Trainingsdaten offenzulegen. Daher wissen wir nicht, ob urheberrechtlich geschütztes Material verwendet wird. Der Benutzer ist Eigentümer aller Ein- und Ausgabeinhalte (nicht Canva), aber Canva kann diese Inhalte zur Verbesserung seiner Dienste verwenden. 

Genauigkeit und Zuverlässigkeit

Canva-Bären keine Gewähr für inhaltliche RichtigkeitDer Benutzer sollte die Fakten stets überprüfen. 

Sicherheit und Vertraulichkeit

canva verwendet Eingabeinhalte, um sein Modell zu trainieren. Es ist das Verantwortung des Benutzers, die Verwendung vertraulicher oder persönlicher Informationen für Eingaben zu vermeiden. Canva versucht, solche Eingaben für das Modelltraining zu filtern, aber es gibt keine Garantien. Das KI-Tool von Canva ist nicht für Sicherheitsprobleme verantwortlich, die vom Benutzer verursacht werden.

Anwendungsbereich

Canva-Benutzer können verwenden generierte Inhalte für kommerzielle Zwecke. Es gibt Bedingungen, wie das Nichtveröffentlichen irreführender Inhalt. Das Unternehmen hat eine Liste der verbotenen Gegenstände, unter einem Abschnitt mit dem Titel „Seien Sie ein guter Mensch“.

Ähnlich wie ChatGPT gibt DALL-E keine Quellen für sein Modelltraining an. Wenn Sie jedoch urheberrechtlich geschützten Inhalt finden, kann einen Antrag auf Entfernung stellen. Es ist schwierig zu überprüfen, ob DALL-E gegen ein Urheberrecht verstößt, da keine Gesetzgebung DALL-E dazu verpflichtet, seine Datenquellen offenzulegen. Benutzereingaben, gemäß den Bedingungen, kann zum Trainieren des DALL-E-Modells verwendet werden — auch wenn es sich um urheberrechtlich geschützten Inhalt handelt. Der Benutzer kann sich davon abmelden.  

DALL-E Benutzereigene Eingabe- und Ausgabeinhalte (nicht DALL-E), aber das bedeutet nicht, dass der Benutzer ein Urheberrecht an dem besagten Inhalt hat. Außerdem können Benutzer kann nicht behaupten, dass DALL-E-Inhalte von Menschen erstellt wurden.

Genauigkeit und Zuverlässigkeit

DALL-E Bären keine Haftung für fehlerhafte Inhalte. Die Nutzungsbedingungen übertragen die gesamte Haftung auf den Benutzer. Diese Haftung umfasst die Zuverlässigkeit, Genauigkeit, Qualität, Sicherheit und Vollständigkeit der Inhalte. Vor der Veröffentlichung Benutzer sollten immer Querverweise verwenden, auf Aktualisierungen prüfen, Fakten verifizieren und sich bei Experten erkundigen, da die Veröffentlichung falscher Informationen zu rufschädigenden oder rechtlichen Konsequenzen führen kann. 

Sicherheit und Vertraulichkeit

In der Datenschutzrichtlinie und den Allgemeinen Geschäftsbedingungen von DALL-E wird die Verantwortung im Falle einer Sicherheitsverletzung nicht explizit angesprochen. DALL-E verfügt jedoch über Sicherheitsmaßnahmen. Wer im Falle eines Hacks die Verantwortung trägt, hängt von den regionalen Gesetzen ab.

DALL-E sammelt Benutzereingaben für das Modelltraining, sogar persönliche Informationen, aber Sie können dies ablehnen. Mit der API behandelt DALL-E Eingabedaten jedoch anders; Es nutzt keine Daten von Geschäftsbenutzern, um seine Modelle zu trainieren

Anwendungsbereich

Die Der Benutzer ist Eigentümer des DALL-E-Eingabe- und Ausgabeinhalts; sie müssen außerdem sicherstellen, dass die Inhalte keine Gesetze oder die DALL-E-Bedingungen verletzen. Man kann nicht behaupten, dass Inhalte von DALL-E von Menschen erstellt wurden, aber Sie müssen auch nicht sagen, dass es KI-generiert ist. 

Sie können DALL-E für kommerzielle Zwecke verwenden, solange Sie alle Gesetze und die DALL-E-Bedingungen einhalten. Die Bestimmungen können sich ändern, aber zum Zeitpunkt der Erstellung dieses Dokuments dürfen Benutzer DALL-E-Inhalte in sozialen Medien, in Anzeigen und auf anderen Kanälen veröffentlichen. Benutzer sollten immer ordnungsgemäße Referenzen angeben und die Richtigkeit der Angaben überprüfen, um Gesetzesverstöße zu vermeiden.

Bing ist nicht verpflichtet, seine Trainingsdatenquellen weiterzugeben. Daher ist es sehr schwierig herauszufinden, ob Bing AI versehentlich urheberrechtlich geschützte Inhalte verwendet. Obwohl es schwierig ist, diese zu identifizieren, können Benutzer Ansprüche auf urheberrechtlich geschützte Inhalte erheben. Laut der Microsoft-Servicevereinbarung verwendet Bing AI Benutzereingaben und -ausgaben, um sein Modell zu verbessern. Es gibt jedoch keine formellen Maßnahmen, um den Diebstahl geistigen Eigentums zu verhindern.

Die Im Servicevertrag gewähren Nutzer Microsoft eine weltweite und gebührenfreie Lizenz für geistiges Eigentum zur Nutzung Ihrer InhalteDarüber hinaus Bing/Microsoft nimmt Benutzereingaben entgegen, um KI-Modelle zu trainieren.

Genauigkeit und Zuverlässigkeit

Microsoft übernimmt keine Garantie für die Richtigkeit oder Aktualität der Inhalte von seinen KI-Diensten. Daher sollten Sie alle KI-Tools von Microsoft auf ihre Richtigkeit überprüfen, insbesondere wenn Sie ein Geschäftsinhaber sind, der Reputationsschäden und rechtliche Konsequenzen vermeiden möchte. 

Sicherheit und Vertraulichkeit

KI-Tools von Microsoft (einschließlich Bing AI) Verwenden Sie persönliche und vertrauliche Benutzerdaten, um Ihre Modelle zu trainieren. Der Servicevertrag deckt keine KI-generierten Inhalte ab. Stattdessen versucht das Unternehmen, die gesamte Verantwortung für KI-Inhalte auf den Benutzer abzuwälzen. Microsoft übernimmt auch keine Verantwortung für die Datenschutz- und Sicherheitspraktiken seiner Kunden. Kurz gesagt: Wenn Ihre Daten bei der Verwendung von Bing AI verletzt werden, ist das Ihr Problem, nicht das von Microsoft.  

Anwendungsbereich

Microsoft erhebt keinen Eigentumsanspruch auf Benutzerinhalte, aber es regelt nicht speziell KI-generierte Inhalte, bei denen die Eigentumsverhältnisse unklar sind. Die Servicevereinbarung erlaubt es den Leuten, Inhalte für kommerzielle Zwecke zu verwenden, mit einigen wichtigen Bedingungen: Sie müssen akzeptieren, dass KI-generierte Inhalte keine menschliche Kreativität aufweisen, sodass sie nicht als geistiges Eigentum beansprucht werden können; Sie dürfen auch nicht die geistigen Eigentumsrechte anderer verletzen. Kurz gesagt, Sie können kein geistiges Eigentum anderer verwenden, aber was auch immer Sie mit Bing machen, ist wahrscheinlich nicht Ihr eigenes geistiges Eigentum.

Quillbot hat keine Verpflichtung zur Offenlegung der zum Trainieren der Modelle verwendeten Quellen. Interessanterweise versucht das Unternehmen jedoch, eine einzigartige Situation zu regeln: Was ist, wenn die Quelle des Modelltrainings die Ausgabe der KI ist? Quillbot versucht im Wesentlichen, das Potenzial für urheberrechtlich geschützte Ausgaben zu minimieren, gibt jedoch an, dass immer noch die Möglichkeit besteht, dass die Ausgabe urheberrechtlich geschützt ist, wenn Benutzer urheberrechtlich geschützten Inhalt eingeben. Um die Sache noch verwirrender zu machen, versucht Quillbot, alle Bereiche abzudecken, indem es sagt, dass Benutzer Quillbot eine unbegrenzte, unterlizenzierbare Lizenz gewähren, während es gleichzeitig behauptet, dass Benutzer alle ihre Ausgaben besitzen. 

Genauigkeit und Zuverlässigkeit

Quillbot-Bären keine Gewähr für Richtigkeit und Zuverlässigkeit. Benutzer sollten sehr vorsichtig sein und alle Angaben von Quillbot überprüfen. 

Sicherheit und Vertraulichkeit

Quillbot hat Maßnahmen zum Schutz der Privatsphäre der Nutzer, aber es kann trotzdem dazu kommen, dass persönliche Daten verarbeitet werden. Es gibt spezielle Schutzmaßnahmen für die Privatsphäre von Kindern. Die Verantwortung für Datenverluste durch einen Hack wird von Fall zu Fall behandelt. Quillbot gibt an, dass der Benutzer Schritte unternehmen sollte, um zu verhindern, dass seine persönlichen Daten gehackt werden, und dass Quillbot über Datenschutzelemente verfügt. 

Anwendungsbereich

Quillbot-Benutzer können generierte Inhalte für kommerzielle Zwecke veröffentlichen, müssen jedoch möglicherweise einige Regeln befolgen, z. B. keine schädlichen oder irreführenden Inhalte veröffentlichen. Quillbots Nutzungsbedingungen sagen Sie nicht, dass Sie erklären müssen, dass der Inhalt KI-generiert ist. Kurz gesagt, die Benutzer können von Quillbot generierte Inhalte veröffentlichen solange dadurch keine Gesetze oder Rechte verletzt werden. 

Pixlr gibt seine Quellen für das Training von KI-Modellen nicht preis, da es keine gesetzliche Verpflichtung dazu gibt. In den Nutzungsbedingungen heißt es, dass der Benutzer Eigentümer des Inhalts ist, aber Benutzer können auch erteilen Sie Pixlr eine Lizenz zur Nutzung der Inhalte. Dadurch soll die Verwendung urheberrechtlich geschützter Inhalte minimiert werden. 

Genauigkeit und Zuverlässigkeit

Pixlr übernimmt keine Verantwortung für Ungenauigkeiten in seinen KI-generierten Inhalten. Benutzer sollten sorgfältig sein und alles von Pixlr auf Fakten überprüfen. 

Sicherheit und Vertraulichkeit

Pixlr nimmt Benutzereingaben für das Training von KI-Modellen entgegen. Es überträgt die Last auf den Benutzer, bei der Eingabe vorsichtig zu sein persönliche oder vertrauliche Informationen. Pixlr lehnt seine Verantwortung ab, einige Informationen aus seinen Trainingsdaten zu filtern, verwendet jedoch einige Filter, um persönliche oder vertrauliche Informationen zu blockieren. Pixlr behauptet keine Haftung für Sicherheitsprobleme, die durch Handlungen des Benutzers verursacht werden

Anwendungsbereich

Benutzer können über Pixlr erstellte KI-generierte Inhalte zu kommerziellen Zwecken veröffentlichen (es gelten jedoch einige Bedingungen). Die Bedingungen Sie müssen nicht angeben, dass etwas KI-generiert ist. Benutzer sind jedoch weiterhin für Verstöße gegen Rechte oder Gesetze verantwortlich. 

Zwischendurch Nutzer gewähren dem Unternehmen Rechte an allen damit erstellten Assets, aber die Der Benutzer besitzt auch alle Vermögenswerte. Es gibt Ausnahmen, z. B. können Sie keinen Eigentumsanspruch geltend machen, wenn Sie habe gerade ein Bild von einem Originalersteller hochskaliert.

Genauigkeit und Zuverlässigkeit

Midjourney übernimmt keine Verantwortung für die Zuverlässigkeit und Genauigkeit seines Inhalts. Benutzer sollten daher besonders vorsichtig sein, um Fakten zu überprüfen und die Zuverlässigkeit zu prüfen. 

Sicherheit und Vertraulichkeit

Midjourney trainiert sein Modell mit Benutzereingaben, auch wenn es persönliche oder vertrauliche Daten. Midjourney behauptet, der Benutzer sollte mit sensiblen Daten vorsichtig sein, daher sei dies nicht sein Problem. Das Unternehmen versucht, bestimmte Informationen für das Modelltraining herauszufiltern, aber das ist nicht erforderlich. Midjourney übernimmt keine Verantwortung für Sicherheitsprobleme, die durch die Aktionen eines Benutzers entstehen können. 

Anwendungsbereich

Midjourney-Benutzer können generierte Inhalte für kommerzielle Zwecke veröffentlichen. Einige Bedingungen, wie die Anforderung, die Pro-Version zu abonnieren wenn das Unternehmen mehr als 1 Million US-Dollar pro Jahr erwirtschaftet, gelten. Zum Zeitpunkt des Schreibens müssen Benutzer nicht behaupten, dass irgendetwas von Midjourney KI-generiert ist, obwohl Gesetze in Gang sind, die dies ändern sollen. Benutzer können grundsätzlich alle Modjourney-Inhalte verwenden, sofern sie keine Rechte oder Gesetze verletzen. 

Clipchamp ist ein Microsoft-Produkt und hat daher keine Verpflichtung, Datenquellen für das Modelltraining freizugeben. Daher ist es schwer zu sagen, ob das KI-Tool versehentlich urheberrechtlich geschützte Daten verwendet. Jemand muss die Urheberrechtsverletzung identifizieren, um einen Anspruch geltend zu machen, was unwahrscheinlich ist. In der Microsoft-Servicevereinbarung heißt es: Es kann Benutzereingaben und -ausgaben verwenden, um Dienste zu verbessern, und Microsoft regelt keine Angelegenheiten des geistigen Eigentums. Außerdem Benutzer gewähren Microsoft eine weltweite, gebührenfreie Lizenz für geistiges Eigentum

Genauigkeit und Zuverlässigkeit

Clipchamp und Microsoft garantiert nichts hinsichtlich der Genauigkeit oder Aktualität seiner KI-Tools, daher sollten Benutzer alle Fakten vor der Veröffentlichung überprüfen. Dies gilt insbesondere für Geschäftsinhaber, die mit rechtlichen Konsequenzen und Reputationsverlusten rechnen müssen. 

Sicherheit und Vertraulichkeit

Clipchamp und Microsoft Verwenden Sie persönliche und vertrauliche Daten für das Modelltraining. Microsoft versucht, die Verantwortung für alle Inhaltsprobleme auf den Benutzer abzuwälzen. Dasselbe gilt für Hackerangriffe und Sicherheitsverletzungen; wenn etwas passiert, liegt die Verantwortung beim Benutzer. 

Anwendungsbereich

Clipchamp und Microsoft vermeiden die Regulierung von KI-generierten Inhalten, niemals behaupten, dass Microsoft Eigentümer der Inhalte ist. Technisch gesehen ist der Benutzer laut Microsoft Eigentümer, jedoch ohne die geistigen Eigentumsrechte. Der Benutzer kann Clipchamp-Inhalte zu kommerziellen Zwecken veröffentlichen, unter zwei Bedingungen: Sie dürfen keine geistigen Eigentumsrechte verletzen oder behaupten, Sie hätten geistige Eigentumsrechte für generierte Inhalte. 

Der Looka Nutzungsbedingungen geben an, dass das Unternehmen nicht verpflichtet ist, Trainingsdatenquellen weiterzugeben, und tut dies daher auch nicht. Benutzer tragen alle Risiken bei der Verwendung von Looka-generierten Inhalten. 

Genauigkeit und Zuverlässigkeit

Looka übernimmt keine Verantwortung für die Genauigkeit und Zuverlässigkeit der Ausgabe seiner KI-Tools. Benutzer sollten alle Fakten überprüfen und auf Zuverlässigkeit prüfen. 

Sicherheit und Vertraulichkeit

Looka nutzt Eingabedaten – auch potenziell persönliche und vertrauliche Daten – um sein Modell zu trainieren. Es liegt daher in der Verantwortung des Benutzers, derartige Daten nicht in seinen Eingaben zu verwenden. Looka versucht, solche Daten zu filtern, behauptet aber, dass dies nicht notwendig sei. Darüber hinaus gehen alle Sicherheitsprobleme zu Lasten des Benutzers. 

Anwendungsbereich

Looka-Nutzer können KI-generierte Inhalte für kommerzielle Zwecke verwenden, müssen dafür aber möglicherweise Bedingungen einhalten oder eine Gebühr bezahlen. Benutzer müssen ihre generierten Inhalte nicht als KI-generiert kennzeichnen. Benutzer sollten es vermeiden, generierte Inhalte zu veröffentlichen, die gegen Rechte oder Gesetze verstoßen. 

Es ist nicht möglich zu sagen, ob Speechify trainiert sein Modell auf urheberrechtlich geschütztes Material. Wir wissen es einfach nicht. Die Bedingungen von Speechify empfehlen, kein urheberrechtlich geschütztes Material für Eingaben zu verwenden, was darauf hindeutet, dass einige Ausgaben urheberrechtlich geschützte Daten enthalten können. Speechify behauptet, keine Verantwortung für diese

Genauigkeit und Zuverlässigkeit

Speechify ist laut seiner Nutzungsbedingungen, übernimmt keine Verantwortung für die Genauigkeit seiner Ausgaben. Benutzer sollten bei Speechify immer die Aktualität, Zuverlässigkeit und Genauigkeit überprüfen. 

Sicherheit und Vertraulichkeit

Sprechen Sie überträgt die gesamte Verantwortung auf den Benutzer, wenn es um die Eingabe sensibler oder persönlicher Daten geht. Das Tool verwendet Eingaben, um Modelle zu trainieren, daher sollten Benutzer vorsichtig sein. Speechify muss nicht unbedingt sensible oder persönliche Daten filtern, versucht dies jedoch mit einigen Filtern. Alle Verantwortung für Sicherheitsprobleme wird auf den Benutzer übertragen. 

Anwendungsbereich

Speechify-Benutzer können Ausgaben für kommerzielle Zwecke, mit einigen Bedingungen wie der Notwendigkeit eines Abonnements oder einer Lizenzierung. Benutzer müssen nicht angeben, dass Speechify-Inhalte KI-generiert sind. Speechify-Benutzer sollten jedoch beim Veröffentlichen von Speechify-Ausgaben niemals Rechte oder Gesetze verletzen. 

Der Kapwing Die Bedingungen legen alle Verantwortung für geistiges Eigentum und Genauigkeit auf den Benutzer. Alle Benutzer gewähren Kapwing eine nicht-exklusive Lizenz, aber Die Nutzer behalten das Eigentum an den Inhalten. Kapwing gibt nichts darüber bekannt, ob es Eingabedaten für das Modelltraining verwendet. 

Genauigkeit und Zuverlässigkeit

Kapwing überträgt die gesamte Verantwortung für die Genauigkeit auf den Benutzer, insbesondere etwaige rechtliche und rufschädigende Konsequenzen.

Sicherheit und Vertraulichkeit

Kapwing-Benutzer übernehmen alle Risiken, wenn sie vertrauliche Informationen in das KI-Tool eingeben. Es gibt auch keine Garantie oder Verantwortung für die Sicherheit des Dienstes.

Anwendungsbereich

Sie können Kapwing-Inhalte kommerziell veröffentlichen, aber Kapwing rät den Benutzern, vorsichtig zu sein. In den Bedingungen steht nicht, ob Benutzer angeben müssen, dass die Ausgabe von Kapwing KI-generiert ist.

Otter.ai gibt an, dass in seinen Diensten keine urheberrechtsverletzenden Materialien erlaubt sind. Diese Aussage lässt sich allerdings nur schwer überprüfen. Benutzer behalten Eigentum und Urheberrechte an Eingaben und Beiträge in Otter.ai, aber Otter.ai sagt Benutzer sind verantwortlich für den keine Eingabe von zuvor urheberrechtlich geschütztem Inhalt. Otter.ai kann auch Eingaben für maschinelles Lernen verwenden.

Genauigkeit und Zuverlässigkeit

Otter.ai übernimmt keine Verantwortung für Genauigkeit und Zuverlässigkeit. Benutzer sollten daher den Inhalt stets überprüfen. Die Verwendung sachlich irreführender oder falscher Informationen kann für den Benutzer rechtliche Probleme oder Reputationsprobleme verursachen. 

Sicherheit und Vertraulichkeit

Alle Risiken der Offenlegung vertraulicher Informationen auf Otter.ai gehört dem Benutzer. 

Anwendungsbereich

Benutzer können mit kommerzieller Absicht veröffentlichen da die Nutzer die Eigentümer der Inhalte sind von Otter.ai. Allerdings gibt es für KI-generierte Inhalte keine klaren Eigentumsregeln. Otter.ai gibt außerdem an, seine transkribierten Notizen können durchsucht und geteilt werden.

PhotoRoom könnte Benutzereingaben und -ausgaben für das Modelltraining verwenden, es gibt jedoch nur begrenzte Informationen darüber, ob der Dienst dies tut oder nicht. Die PhotoRoom-Bedingungen erinnern Benutzer daran, die Eingabe von urheberrechtlich geschütztem Inhalt zu vermeiden. Die Benutzer tragen die volle Verantwortung dafür. 

Genauigkeit und Zuverlässigkeit

Fotoraum übernimmt keine Verantwortung für die Richtigkeit oder Zuverlässigkeit der KI-generierten Inhalte. Benutzer sollten eigene Prüfungen durchführen, um dies zu verifizieren.

Sicherheit und Vertraulichkeit

PhotoRoom verwendet Eingaben, um seine Modelle zu trainieren. Benutzer sind verantwortlich für das Einfügen vertraulicher or Personal Information. Der Dienst versucht, diese Art von Eingaben zu filtern, behauptet aber, dies nicht zu tun. Die Benutzer tragen die volle Verantwortung für Sicherheitsprobleme. 

Anwendungsbereich

PhotoRoom-Inhalt kann für kommerzielle Zwecke genutzt werden, es können jedoch einige Bedingungen gelten, wie z. B. die Anmeldung für ein Abonnement. In den Bedingungen steht, dass Sie Inhalte nicht als KI-generiert kennzeichnen müssen. Benutzer müssen möglicherweise mit anderen Konsequenzen rechnen, wenn sie Rechte oder Gesetze verletzen. 

Haftungsausschluss

Diese Informationen dienen nur allgemeinen Informationszwecken und sollten nicht als Rechtsberatung verstanden werden. Ecommerce Platforms übernimmt keine Verantwortung für Fehler oder Auslassungen. Wenden Sie sich an einen geeigneten Rechtsexperten, um Rat und Anleitung zu erhalten, die auf Ihre spezifischen Bedürfnisse und Umstände zugeschnitten sind.

Schlussfolgerung

Angesichts der Allgegenwart von KI ist es für uns alle zunehmend wahrscheinlicher, dass wir Tools und Apps verwenden, die auf dieser Technologie basieren. Dennoch haben viele von uns nicht den Luxus, sich die Zeit zu nehmen, deren Geschäftsbedingungen zu lesen. 

Im Jahr 2017, professionelles Dienstleistungsnetzwerk Deloitte festgestellt, dass 91% der Verbraucher „Rechtliche Bedingungen bereitwillig akzeptieren, ohne sie zu lesen“ – und steigt zwischen 97 und 18 Jahren auf 34 %.

Angesichts der vielen KI-AGB, die wir mit niedrigen Lesbarkeitswerten bewertet haben, scheint es, dass Die Unverständlichkeit des Juristenjargons dieser Dokumente hält Benutzer davon ab, überhaupt zu versuchen, sie zu verstehen. 

Wir haben mit einem Rechtsexperten zusammengearbeitet, der die Dokumente für uns analysiert hat. Es ist jedoch fraglich, ob dies notwendig ist.

Wir hoffen, dass diese Untersuchung – einschließlich der Lesbarkeitsbewertungen und Josilda Ndreajs Fachwissen zu den zu beachtenden Bedingungen und Konditionen – Ihnen bei der Entscheidung hilft, welche KI-Apps und -Tools Sie nutzen möchten. 

Methodik und Quellen

So haben wir die Untersuchung durchgeführt

Ausgehend von einer Startliste mit rund 90 KI-Tools und Apps haben wir zunächst die rechtlichen Dokumente jedes Tools gesammelt, von den Geschäftsbedingungen bis hin zu den Datenschutzrichtlinien. Anschließend haben wir die Wortlänge dieser Dokumente aufgezeichnet und ihren Lesbarkeitswert mithilfe des Bewertungssystems von Flesch-Kincaid berechnet. Als Nächstes haben wir die Hilfe der Rechtsexpertin Josilda Ndreaj (LLM) in Anspruch genommen, die eine Auswahl dieser Rechtsdokumente überprüft und wichtige Punkte identifiziert hat, die Benutzer beachten sollten.

Wir haben rund 30 KI-Tools, für die es mobile App-Versionen gibt, im Apple App Store durchsucht und die in ihren Einträgen angezeigten Datenschutzhinweise aufgezeichnet. Diese sind in 14 Kategorien von Daten unterteilt, die von Benutzern gesammelt werden können, und zu welchem ​​Zweck. Um zu berechnen, welche KI-Apps die meisten Daten gesammelt haben, haben wir gemessen, in wie vielen der 14 möglichen Kategorien diese Apps ihre Benutzer verfolgt haben. 

Es ist wichtig zu beachten, dass diese 14 Kategorien weiter in einzelne Datenpunkte unterteilt sind. Beispielsweise umfasst „Kontaktinformationen“ fünf Datenpunkte, nämlich „Name“, „E-Mail-Adresse“, „Telefonnummer“, „Postanschrift“ und „Andere Kontaktinformationen des Benutzers“. Um herauszufinden, welche Apps die meisten einzelnen Datenpunkte erfassen, werfen Sie einen Blick auf die letzte Spalte in jeder der Tabellen.

Einige Apps sammeln mehr einzelne Datenpunkte als die weiter oben im Ranking erscheinenden. Das liegt daran, dass unsere Ranking-Methodik berücksichtigt, welche Apps insgesamt in den meisten Kategorien Daten sammeln, und so ein breiteres und damit „vollständigeres“ Bild der Benutzerdaten suggeriert, anstatt die Tiefe der Informationen zu berücksichtigen, die sie in jeder Kategorie sammeln. 

Quellen

Korrekturwünsche

Wir aktualisieren diese Untersuchung regelmäßig.

Wenn Sie Eigentümer eines der in dieser Studie enthaltenen KI-Tools sind und die Informationen auf dieser Seite anfechten möchten, aktualisieren wir diese gerne, nachdem wir die von Ihnen vorgelegten Beweise überprüft haben. Wenn Sie uns in diesem Zusammenhang kontaktieren, bitten wir Sie um Folgendes: 

  • Geschäftsdokumente, die Ihre Legitimität belegen (z. B. Gründungsurkunde oder Registrierungsdokumente) 
  • die Informationen auf dieser Seite, die Ihrer Meinung nach veraltet sind (bitte seien Sie genau)
  • wie und warum die Aktualisierung erfolgen soll, mit Links zu den Unterlagen, die dies belegen (z. B. Änderungen der Servicebedingungen)

Bitte kontaktieren Sie uns unter [E-Mail geschützt] mit der Betreffzeile: „Korrekturanfrage: Studie zu KI-Tools“ sowie dem Namen des KI-Tools, wegen dem Sie uns kontaktieren.

Bogdan Rancea

Bogdan Rancea ist Mitbegründer von Ecommerce-Platforms.com und leitender Kurator von ecomm.design, einer Präsentation der besten E-Commerce-Websites. Mit über 12 Jahren Erfahrung im Bereich des digitalen Handels verfügt er über umfangreiches Wissen und ein scharfes Auge für großartige Online-Einzelhandelserlebnisse. Als E-Commerce-Tech-Explorer testet und bewertet Bogdan verschiedene Plattformen und Design-Tools wie Shopify, Figma und Canva und bietet praktische Ratschläge für Ladenbesitzer und Designer.