TL;DR - Ce qu'il faut retenir
J'ai épluché les politiques de confidentialité, CGU et documentation officielle des trois agrégateurs IA pour comprendre comment ils peuvent proposer des prix aussi bas. Spoiler : vos données valent plus que ce que vous payez.
Les scores :
- 1min.ai (2/10) 🚩🚩🚩🚩 : Société vietnamienne fantôme, AUCUNE garantie sur vos données, aucune interdiction d'entraînement IA. Review farming documenté. À FUIR.
- Poe/Quora (5/10) ⚠️⚠️⚠️ : Ultra-transparent... sur le fait qu'ils partagent TOUT avec les fournisseurs IA + les développeurs de bots tiers PEUVENT entraîner sur vos conversations. OK SI vous utilisez UNIQUEMENT les bots officiels (OpenAI, Anthropic, Google, Meta).
- Mammouth.ai (8/10) ✅✅✅ : Seul service conforme RGPD, engagement explicite de non-entraînement, hébergement EU, pas de revente de données. Le seul recommandable, mais manque certifications entreprise.
Le verdict brutal : Les 10€ économisés par mois = exposition de vos conversations à des tiers, absence de garanties légales, risque d'entraînement de modèles. Pour usage pro ou données sensibles : payez les 20€/mois en direct (ChatGPT Plus, Claude Pro). Pour usage perso non-sensible : Mammouth est le moins pire.
Bottom line : Si c'est trop cheap, TU es le produit. Vos données valent plus de 10€/mois — agissez en conséquence.
Les agrégateurs IA promettent l'accès à tous les modèles pour 5-10€/mois. Mais vos conversations valent-elles ce prix ? L'investigation révèle des pratiques opaques, des clauses ambiguës et des risques de fuite de données bien supérieurs aux fournisseurs directs. Entre sociétés fantômes vietnamiennes, partage massif de données avec des tiers, et absence totale de garanties sur l'entraînement de modèles, les trois services analysés (1min.ai, Poe, Mammouth.ai) montrent des niveaux de protection radicalement différents. Résultat : un seul passe le test RGPD, tandis qu'un autre expose vos conversations à des développeurs tiers qui peuvent légalement les utiliser pour entraîner leurs IA.
Pourquoi cette question est absolument cruciale
Le modèle économique des agrégateurs ne tient pas debout. Quand un service vous facture 24$ à vie pour accéder à GPT-5, Claude, Gemini et Midjourney — alors que chacun coûte 20€ en direct — deux hypothèses s'imposent : soit ils opèrent à perte (insoutenable), soit il y a une autre source de revenus.
Les données sont le candidat évident. En février 2025, OmniGPT (un agrégateur IA) a subi une brèche massive exposant 34 millions de lignes de conversations, 30 000 adresses email, et des clés API. Les données étaient en vente pour 100$ sur BreachForums. Ce n'est pas théorique — c'est arrivé il y a 9 mois.
La question n'est pas "si" vos données sont utilisées, mais comment, par qui, et avec quelles garanties légales. Cette section démonte les politiques de confidentialité ligne par ligne pour identifier les clauses toxiques que personne ne lit.
Méthodologie d'analyse
J'ai analysé les documents officiels de chaque service (privacy policy, CGU, FAQ) et vérifié :
Les 7 critères décisifs :
- Propriété des données : Qui possède vos prompts et les contenus générés ?
- Entraînement de modèles : Peuvent-ils utiliser vos conversations pour entraîner des IA ?
- Localisation des serveurs : UE/RGPD ou zones juridiques opaques ?
- Partage avec des tiers : À combien d'entreprises vos données sont-elles exposées ?
- Durée de rétention : Combien de temps gardent-ils vos conversations ?
- Droits utilisateurs : Pouvez-vous supprimer, exporter, rectifier vos données ?
- Clauses toxiques : Décharge de responsabilité, arbitrage forcé, changements sans préavis ?
J'ai ensuite comparé avec les politiques d'OpenAI (API/Enterprise), Anthropic (Commercial) et Google Gemini (Workspace) pour établir le standard que devraient respecter les agrégateurs payants.
1min.ai : Zone grise juridique et transparence minimale
🚩 ALERTE ROUGE : Société vietnamienne prétendant relever de la juridiction californienne, sans garantie sur la propriété des données ni interdiction d'entraînement.
Les documents analysés
- Privacy Policy : https://1min.ai/privacy (màj 31 août 2024)
- Terms of Service : https://1min.ai/terms (màj 31 août 2024)
- Entité légale : Hoan Tran IT (Vietnam), fondateur Hoan Tran
Et surtout les jolis badges sur leurs pages d'accueil :
❌ Propriété des données : Totalement floue
Verdict : Aucune clause n'indique qui possède vos prompts, conversations ou contenus générés.
La Privacy Policy et les CGU sont silencieuses sur la propriété intellectuelle. Vous ne savez pas si vous conservez les droits sur vos créations, si 1min.ai peut les réutiliser, ou si les contenus générés vous appartiennent commercialement. C'est la première fois que je vois une omission aussi flagrante dans un service IA payant.
Pour comparaison, OpenAI déclare explicitement : "Your organization's data always remains confidential, secure, and entirely owned by you." Anthropic : "Customer owns all Outputs." Google : "Customer owns all data."
Ici ? Silence radio. En droit, le silence ne joue jamais en faveur de l'utilisateur.
❌ Entraînement de modèles : Aucune interdiction
Citation exacte (Privacy Policy) :
"The Company may use Personal Data for the following purposes: To provide and maintain our Service, including to monitor the usage of our Service."
Le terme "improve the Service" est délibérément vague et pourrait englober l'entraînement de modèles. Aucune clause ne dit explicitement "We will not use your data to train AI models" — pourtant la formulation standard chez Anthropic, OpenAI API, et Google Workspace.
🚩 Red flag majeur : Quand un service IA payant ne garantit PAS qu'il n'entraîne pas sur vos données, c'est qu'il se garde la possibilité de le faire. Pattern recognition de 40 ans : ce qui n'est pas explicitement interdit est implicitement permis dans les CGU.
⚠️ Localisation : Vietnam → Californie → Où exactement ?
Citation (Privacy Policy) :
"Your information, including Personal Data, is processed at the Company's operating offices and in any other places where the parties involved in the processing are located."
Traduction : on ne vous dit pas où sont les serveurs.
- Développeur basé à Ho Chi Minh City, Vietnam (adresse Google Play)
- CGU prétendent que la juridiction est "California, United States"
- Aucune trace d'enregistrement d'entreprise aux USA trouvée
Pattern de société fantôme : développeur vietnamien, prétention juridictionnelle californienne sans preuve, aucune transparence sur les data centers. En cas de litige ou de violation RGPD, bonne chance pour assigner cette entité.
La FAQ demande "Are you GDPR-compliant?" mais la réponse... renvoie juste à la privacy policy. Zéro substance, zéro preuve.
🚩 Clauses toxiques identifiées
A) Partage ultra-large avec "business partners" non définis
Citation :
"With business partners: We may share Your information with Our business partners to offer You certain products, services or promotions."
Aucune limitation. "Business partners" peut signifier N'IMPORTE QUI. Brokers de données, annonceurs, revendeurs — tout est possible.
B) Décharge de responsabilité même pour "loss of privacy"
Citation (ToS) :
"To the maximum extent permitted by applicable law, in no event shall the Company or its suppliers be liable for any special, incidental, indirect, or consequential damages whatsoever (including, but not limited to, damages for loss of profits, loss of data or other information, for business interruption, for personal injury, loss of privacy arising out of or in any way related to the use of or inability to use the Service..."
Ils disclaiment explicitement la responsabilité pour perte de confidentialité. Inapplicable en Europe, mais révélateur de l'état d'esprit.
C) Collecte de données biométriques (face data) avec protection minimale
Citation :
"Face data collected during uploads to the Service will be used to process user inquiries. The Company will retain face data only for as long as necessary for the aforementioned purposes, with a maximum retention period of one year."
Données biométriques = catégorie ultra-sensible en RGPD. Ici, traitées comme n'importe quelle autre donnée, avec rétention d'1 an maximum sans justification claire.
⚠️ Rétention des données : 1 an (vague)
Citation :
"The Company will retain Your Personal Data only for as long as is necessary for the purposes set out in this Privacy Policy, with a maximum retention period of one year."
Le maximum 1 an est relativement court (point positif), mais "as long as necessary" est une porte ouverte pour prolonger indéfiniment. Aucune précision sur :
- Le sort de l'historique des conversations après 1 an
- Les backups et archives
- Si suppression = vraie suppression ou anonymisation
🚩 Programme d'incentivisation de reviews
Trouvaille documentée : 1min.ai offre jusqu'à 12 millions de crédits pour laisser des avis sur Trustpilot, G2, Capterra, SourceForge.
Ce n'est pas illégal, mais c'est éthiquement douteux et probablement en violation des politiques de ces plateformes. Cela gonfle artificiellement les notes (actuellement 4.7/5 sur Trustpilot). Quand un service doit acheter sa réputation, que cache-t-il ?
✅ Points positifs (rares)
- Rétention limitée à 1 an (mieux que beaucoup)
- Droit de suppression mentionné
- Pas de breach documentée à ce jour
Verdict 1min.ai : 🚩🚩🚩🚩 (4/5 red flags)
SCORE : 2/10
Ne pas utiliser pour :
- Données personnelles, financières, santé
- Documents confidentiels ou propriétaires
- Tout ce qui a une valeur légale ou commerciale
- Toute utilisation nécessitant la conformité RGPD
Utilisable uniquement pour :
- Requêtes sur des informations publiques
- Expérimentation créative non-sensible
- Cas où vous assumez que tout sera partagé/utilisé
Problèmes structurels :
- Aucune garantie de propriété des données
- Aucune interdiction d'entraînement de modèles
- Juridiction fantôme (Vietnam/Californie)
- Serveurs de localisation inconnue
- Clauses de partage illimitées
- Incentivisation de reviews (intégrité douteuse)
Poe (Quora) : Transparent sur le pire
⚠️ ALERTE ORANGE : Service américain qui partage TOUTES vos conversations avec les fournisseurs d'IA ET permet aux développeurs tiers d'entraîner sur vos données.
Les documents analysés
- Privacy Policy : https://poe.com/pages/privacy
- Terms of Service : https://poe.com/pages/tos
- Privacy Center : https://poe.com/pages/privacy-center
- Entité légale : Quora, Inc. (Mountain View, Californie, USA)
⚠️ Propriété des données : Licence ultra-large à Quora
Citation (ToS, section 4.5 "Our Use of Your Content") :
"By using the Poe APIs, you grant us a worldwide, non-exclusive, royalty-free, and transferable license to use Your Content and Your Bots."
Vous gardez la propriété nominale, mais Quora obtient une licence transférable. Cela signifie qu'ils peuvent légalement transférer vos droits d'usage à des tiers. Inquiétant.
🚩 Entraînement de modèles : OUI pour les bots de développeurs tiers
C'est là que ça devient grave.
Citation (Privacy Center) :
"Official Poe bots and user-created prompt bots using Open AI, Anthropic, Google, and Meta's AI models do not train on your chats..."
MAIS :
"Third-party developer bots can use your anonymized chats to train their AI models – even then, they don't have access to the personal data associated with your Poe account."
Traduction claire : Si vous utilisez un bot créé par un développeur tiers (et Poe en regorge), vos conversations peuvent être utilisées pour entraîner leurs modèles IA. "Anonymisées" ne signifie rien si le contenu de la conversation contient des informations sensibles.
Pattern toxique : Poe transfère la responsabilité à l'utilisateur via un système d'icônes "privacy shield" — à vous de vérifier chaque bot avant usage. La plupart des utilisateurs ne le feront jamais.
🚩 Partage massif de données avec les fournisseurs IA
Citation (Privacy Policy, "Interactions with Bots") :
"Our third party AI model providers and third party bot developers may receive details about your interactions with bots on Poe (including the contents of your chats and photos or documents you upload) to provide and generally improve their services, which they may process in their legitimate business interests."
Traduction : Le contenu INTÉGRAL de vos conversations est partagé avec :
- OpenAI
- Anthropic
- Meta
- Tout développeur de bot tiers que vous utilisez
Seules vos informations de compte (username, email) sont anonymisées. Le contenu de vos messages ne l'est PAS.
Citation (Privacy Center, avertissement explicite) :
"Although we take steps to help keep your identity private, any personal data you include in your chats with the bots is shared with the AI model providers."
C'est transparent, mais c'est désastreux. Si vous écrivez "Mon nom est Jean Dupont et je cherche des conseils fiscaux pour mon entreprise SAS", cette phrase COMPLÈTE est envoyée à OpenAI, Google, ou le développeur du bot.
⚠️ Localisation : USA, juridiction californienne
- Entreprise basée en Californie
- Serveurs : non précisé publiquement
- Quora prétend se conformer au RGPD, mais en tant qu'entreprise US, l'enforcement est limité
- Pas d'option pour choisir la localisation des données (contrairement à OpenAI ou Google)
Historique de sécurité : Quora a subi un breach majeur en novembre 2018 exposant 100+ millions d'utilisateurs (noms, emails, mots de passe cryptés). Poe lui-même n'a pas eu de breach documentée, mais l'infrastructure est Quora.
🚩 Clauses toxiques
A) Arbitrage obligatoire (utilisateurs US/Canada)
Citation :
"IF YOU ARE IN THE UNITED STATES OR CANADA, YOU AGREE THAT DISPUTES BETWEEN YOU AND QUORA WILL BE RESOLVED BY BINDING, INDIVIDUAL ARBITRATION AND YOU WAIVE YOUR RIGHT TO PARTICIPATE IN A CLASS ACTION LAWSUIT."
Typique des services US : impossible de poursuivre en justice collective.
B) Partage publicitaire
Citation (Privacy Policy) :
"We may share your hashed email with our ad platform partners for our advertising activities, such as for programmatic ads and paid acquisition campaigns."
Poe ajoute une couche publicitaire absente chez les fournisseurs directs. Votre email hashé circule chez des partenaires publicitaires.
C) "Anonymisation" trompeuse
Poe répète que les données sont "anonymisées", mais dans le même souffle avertit que tout ce que vous écrivez est partagé textuellement. L'anonymisation ne protège que votre identité de compte — pas le contenu.
⚠️ Rétention : 30 jours chez les fournisseurs, indéfini chez Poe
Citation (FAQ) :
"Our partners receive anonymized versions of your chats and each partner sets their own retention schedule (e.g. OpenAI and Anthropic retain your chats for 30 days)."
Poe lui-même ne précise aucune limite de rétention pour ses propres systèmes. Les conversations restent dans votre historique tant que vous ne les supprimez pas.
✅ Points positifs
- Transparence exemplaire : Poe est honnête sur ses pratiques (même si elles sont mauvaises)
- Système de "privacy shield" (icônes) pour identifier les types de bots
- Garantie explicite que les bots officiels (OpenAI, Anthropic, Google, Meta) ne s'entraînent PAS sur vos données
- Possibilité de supprimer conversations et compte
- Privacy Center clair avec FAQ détaillée
Comparaison : Poe vs usage direct de ChatGPT/Claude
| Critère | Poe | ChatGPT Plus / Claude Pro direct |
| Contrôleurs de données | 2 (Quora + fournisseur IA) | 1 (fournisseur uniquement) |
| Risque d'entraînement | ÉLEVÉ (bots tiers) | FAIBLE (opt-out possible) |
| Partage publicitaire | OUI | NON (minimal) |
| Transparence | Élevée | Élevée |
| Juridiction | USA | USA (mais options EU pour API) |
Conclusion Poe : Transparent sur des pratiques problématiques. Utiliser Poe = accepter que vos conversations soient partagées avec de multiples tiers. Point.
Verdict Poe : ⚠️⚠️⚠️ (3/5 alertes)
SCORE : 5/10
Ne pas utiliser pour :
- Informations confidentielles d'entreprise
- Données personnelles sensibles
- Propriété intellectuelle
- Tout ce que vous ne voudriez pas voir utilisé pour entraîner une IA
Acceptable pour :
- Recherche générale et questions publiques
- Brainstorming créatif non-propriétaire
- Apprentissage et éducation
- SI ET SEULEMENT SI vous utilisez uniquement les bots officiels (OpenAI, Anthropic, Google, Meta)
Règle d'or : Ne JAMAIS utiliser un bot de développeur tiers si vous vous souciez de la confidentialité. Toujours vérifier l'icône "privacy shield".
Mammouth.ai : Le champion RGPD (avec quelques angles morts)
✅ BONNE SURPRISE : Entreprise française, conformité RGPD, hébergement européen, engagement explicite de non-entraînement. Mais manque de clarté sur la propriété des contenus.
Les documents analysés
- Privacy Policy FR : https://info.mammouth.ai/fr/docs/privacy-policy/
- Privacy Policy EN : https://info.mammouth.ai/docs/privacy-policy/
- About Privacy : https://info.mammouth.ai/docs/about-privacy/
- ToU : https://mammouth.ai/ToU/
- Entité légale : MAMMOUTH AI SAS, SIREN 932 983 968, Paris, France
⚠️ Propriété des données : Non précisée (mais implicitement favorable)
Omission notable : Comme 1min.ai, Mammouth ne dit PAS explicitement qui possède les prompts et contenus générés.
MAIS contrairement à 1min.ai, l'absence de clause de licence ou de réutilisation suggère que les données restent à l'utilisateur. En droit français et RGPD, le silence après un traitement de données personnelles joue généralement en faveur de l'utilisateur.
Recommandation : Mammouth devrait ajouter une clause claire "Les utilisateurs conservent l'entière propriété de leurs prompts et des contenus générés" pour lever toute ambiguïté.
✅ Entraînement de modèles : Engagement explicite de NON
C'EST LE POINT FORT MAJEUR.
Citation (Privacy Policy FR) :
"Nous n'entraînons pas de modèles internes."
Citation (About Privacy) :
"No training of models with prompts from Mammouth."
ET MIEUX ENCORE : Mammouth documente les politiques de chaque fournisseur IA :
OpenAI :
"You own and control your data … We do not train our models on your business data by default."
Mistral AI (fournisseur français) :
"Nous n'utilisons pas Vos Données Utilisateur pour entraîner, améliorer ou perfectionner nos Modèles."
Rétention : 30 jours max pour monitoring d'abus uniquement
Anthropic Claude :
"Anthropic may not train models on Customer Content from paid Services."
Google Gemini :
"Gemini doesn't use your prompts or its responses as data to train its models."
DeepSeek & Llama (via Fireworks) :
Zero Data Retention policy. Prompts non utilisés pour améliorer les modèles.
C'est la transparence niveau GOLD. Mammouth ne se contente pas de faire une promesse vague — ils citent les politiques de chaque sous-traitant avec URLs et extraits textuels.
✅ Localisation : Europe (EEE), RGPD natif
Citation (Privacy Policy) :
"As we are based in Europe, your personal data is processed and stored within the European Economic Area (EEA)."
Infrastructure documentée :
- Base de données : PostgreSQL
- Cloud : Google Cloud Platform
- Localisation : EEE (Espace Économique Européen)
- Chiffrement : données en transit ET au repos
Marketing explicite : Mammouth se positionne comme "Le berceau du RGPD 🙂" et alternative européenne aux services US.
Transferts internationaux (quand nécessaires) :
"If data must be transferred outside the EEE (e.g., for certain AI model providers or third-party services), we ensure that it is done under adequate safeguards, such as through Standard Contractual Clauses (SCCs)."
✅ Pas de revente de données
Citation (Privacy Policy FR) :
"Nous ne vendons ni ne partageons vos données à des fins publicitaires."
Citation (About Privacy) :
"Il est important de noter que nous générons des revenus exclusivement grâce aux abonnements que vous payez, et non en vendant ou en monétisant vos données d'une quelconque autre manière."
Modèle économique transparent : revenus = abonnements (10-20€/mois). Pas de pub, pas de revente.
✅ Rétention des données : Précise et détaillée
Mammouth fournit le tableau de rétention le plus clair des trois services :
| Type de données | Durée de rétention | Suppression |
| Prompts & conversations (compte actif) | Indéfini (tant que l'abonnement est actif) | Sous contrôle utilisateur |
| Après suppression utilisateur | 30 jours maximum (monitoring d'abus) | Suppression définitive après 30j |
| Données de compte (après résiliation) | 1 an (obligations légales) | Suppression sécurisée après 1 an |
| Données de sécurité | 1 an glissant | Suppression automatique |
| Données de paiement | 5-7 ans (obligations fiscales) | Selon réglementation pays |
| Emails de support | 2 ans depuis dernière interaction | Suppression sur demande |
C'est le niveau de transparence qu'on attend d'un service RGPD sérieux.
✅ Droits RGPD : Implémentation complète
Mammouth liste explicitement les 7 droits RGPD :
- Droit d'accès : Demander copie de vos données
- Droit de rectification : Corriger données inexactes
- Droit à l'effacement ("droit à l'oubli")
- Droit à la limitation du traitement
- Droit d'opposition
- Droit à la portabilité : Récupérer vos données dans un format réutilisable
- Droit de retirer le consentement
Contact : [email protected]
Mécanisme de plainte : Droit de saisir l'autorité de protection des données (CNIL en France)
C'est la conformité RGPD complète, comme exigé par la loi.
⚠️ Angles morts et faiblesses
A) ToU générique de template
Les Terms of Use (https://mammouth.ai/ToU/) sont un template générique créé avec un générateur en ligne. Citation :
"These Terms of Service have been created with the help of the Terms Of Service Generator."
Ces ToU concernent le site web, PAS le service d'IA en tant que tel. Aucun ToS spécifique à l'abonnement IA n'est clairement accessible.
Disclaimer trop large :
"All the materials on Mammouth's Website are provided 'as is'. Mammouth makes no warranties, may it be expressed or implied."
Pour un site vitrine, c'est normal. Pour un service payant IA, c'est insuffisant.
B) Ambiguïté sur la suppression
Citation :
"If you delete your data, we might keep it for no more than 30 rolling days to monitor abuse, then delete it."
Le mot "might" crée une ambiguïté. Garderont-ils toujours 30 jours, ou seulement parfois ? À clarifier.
C) Pas de DPO (Data Protection Officer) mentionné
Un service qui traite des données personnelles à grande échelle devrait normalement désigner un DPO sous RGPD. Aucun n'est publiquement identifié. Ce n'est pas forcément obligatoire selon l'échelle de traitement, mais c'est une meilleure pratique.
D) Processeurs de paiement non nommés
Mammouth nomme les fournisseurs IA (OpenAI, Anthropic, Google, Mistral, Fireworks) mais ne précise PAS quel processeur de paiement ils utilisent. En RGPD, tous les sous-traitants devraient être listés.
E) Jeunesse de l'entreprise
Mammouth est créée en septembre 2024 — moins de 2 ans d'existence. C'est une startup. Risque business : si l'entreprise ferme, qu'advient-il de vos données ? (Mais c'est vrai pour toute startup.)
✅ Points positifs
- Conformité RGPD complète
- Hébergement européen (EEE)
- Engagement explicite de non-entraînement avec documentation des fournisseurs
- Pas de revente de données ni publicité
- Tableau de rétention clair et détaillé
- Droits RGPD entièrement implémentés
- Transparence sur le modèle économique (abonnements uniquement)
- Entreprise française identifiable (SAS enregistrée, SIREN public)
Verdict Mammouth.ai : ✅✅✅ (3/5 étoiles vertes)
SCORE : 8/10
Le meilleur des trois services analysés pour la confidentialité.
Utilisable pour :
- Données personnelles (usage personnel)
- Projets créatifs et professionnels non-critiques
- Utilisateurs EU qui priorisent RGPD
- Alternative européenne aux services US
Précautions pour :
- Utilisation entreprise : demander clarification sur propriété IP avant usage commercial
- Données ultra-sensibles : absence de certifications entreprise (SOC 2, ISO 27001) limite l'usage professionnel critique
- Jeunesse de la startup : risque de pérennité
Recommandations à Mammouth :
- Ajouter clause explicite de propriété des contenus utilisateurs
- Remplacer ToU générique par des CGU spécifiques au service IA
- Nommer tous les sous-traitants (processeur de paiement, email)
- Désigner et publier contact du DPO
- Obtenir certifications entreprise (SOC 2, ISO 27001) pour crédibilité B2B
Comparaison avec les "vrais" fournisseurs : Le standard à atteindre
Voici ce qu'offrent OpenAI (API/Enterprise), Anthropic (Commercial), et Google Gemini (Workspace) — et ce que devraient offrir les agrégateurs :
✅ OpenAI (API & Enterprise)
Propriété : "Your organization's data always remains confidential, secure, and entirely owned by you."
Entraînement : "OpenAI will not use data submitted by customers via our API to train or improve our models, unless you explicitly decide to share your data with us."
→ Par défaut : AUCUN entraînement. Opt-in uniquement.
Rétention : 30 jours standard pour monitoring d'abus, puis suppression. Zero Data Retention (ZDR) disponible pour clients qualifiés (santé, finance).
Localisation : 10 régions disponibles (US, Europe, Japon, Inde, Singapour, Corée, Canada, Australie, UAE). Configuration par projet dans le dashboard.
Certifications : SOC 2 Type 2, GDPR/CCPA avec DPA, HIPAA BAA (avec ZDR), chiffrement AES-256.
✅ Anthropic (Commercial API/Team/Enterprise)
Propriété : "Customer owns all Outputs. Anthropic hereby assigns to Customer its right, title and interest (if any) in and to Outputs."
Entraînement : "We will not use your chats or coding sessions to train our models, unless you choose to participate in our Development Partner Program."
→ Garantie absolue : aucun entraînement par défaut.
Rétention : 7-30 jours pour API (réduit à 7j depuis sept 2025), puis suppression automatique. ZDR disponible pour entreprises.
Localisation : US/Europe/Asie/Australie par défaut. Options régionales via AWS Bedrock ou Google Vertex AI.
Certifications : SOC 2, ISO 27001, DPA commercial, BAA HIPAA (avec ZDR).
Constitutional AI : Principes de privacy intégrés dans l'entraînement du modèle ("Choose the response that is most respectful of everyone's privacy").
✅ Google Gemini (Workspace/Enterprise)
Propriété : Customer owns all data per Cloud Data Processing Addendum (CDPA).
Entraînement : "Workspace does not use customer data for training models without customer's prior permission or instruction."
→ Interdiction contractuelle explicite.
Rétention : Session-only (stateless) pour la plupart des produits Gemini. Les prompts ne sont PAS conservés après la session. C'est le standard le plus strict des trois.
Localisation : US ou Europe configurable par admin Workspace. Endpoints régionaux via Vertex AI.
Certifications : SOC 1/2/3, ISO 9001/27001/27017/27018/27701, ISO 42001 (premier au monde pour systèmes IA), FedRAMP High, HIPAA BAA, COPPA, FERPA.
→ Google a les certifications les plus complètes de l'industrie.
Sécurité avancée : Client-side encryption (CSE), Data Loss Prevention (DLP), Information Rights Management (IRM).
Le standard minimum que les agrégateurs DEVRAIENT respecter
| Critère | Standard industrie (OpenAI/Anthropic/Google) | 1min.ai | Poe | Mammouth.ai |
| Propriété données | Client owns (explicite) | ❌ Non précisé | ⚠️ Licence large | ⚠️ Non précisé |
| Interdiction entraînement | ✅ Contractuel par défaut | ❌ Aucune | ⚠️ Sauf bots tiers | ✅ Explicite |
| Rétention | 7-30j ou ZDR/session-only | ⚠️ 1 an max (vague) | ⚠️ Indéfini (Poe) / 30j (fournisseurs) | ✅ 30j post-suppression |
| Localisation régionale | ✅ Choix US/EU/autres | ❌ Inconnue | ❌ US uniquement | ✅ EEE |
| Certifications | SOC 2, ISO 27001, HIPAA | ❌ Aucune | ⚠️ Quora (pas Poe spécifique) | ❌ Aucune (startup) |
| DPA/GDPR | ✅ DPA disponible | ❌ Non | ⚠️ Via Quora | ✅ Conforme RGPD |
| Droits utilisateurs | ✅ Complets | ⚠️ Basiques | ✅ Corrects | ✅ Complets |
| Transparence | ✅ Haute | ❌ Faible | ✅ Haute | ✅ Haute |
Le verdict est sans appel
Seul Mammouth.ai approche le standard des fournisseurs majeurs (pour les comptes payants/API). 1min.ai est en-deça sur tous les critères critiques. Poe est transparent mais structurellement problématique (partage massif de données).
Pattern recognition : Les fournisseurs majeurs ont passé des années à construire ces garanties sous pression réglementaire (GDPR, CCPA, HIPAA). Les agrégateurs récents (2023-2024) n'ont pas encore investi dans cette infrastructure de compliance.
Red flags globaux et signaux d'alerte
Après analyse approfondie des politiques de confidentialité, voici les patterns toxiques récurrents :
🚩 Signaux d'alerte critiques
0. Licences “à vie” vendues via StackSocial aa moins de 30$ en promo perpetuelle
Trouvé chez : 1min.ai
Problème : Aucune entreprise IA sérieuse ne vend de “licence à vie” sur un service en ligne dont le coût d’exploitation est variable.
Risque : Ces offres indiquent souvent un modèle économique non viable (cash grab avant fermeture). Si l’entreprise disparaît, votre “accès à vie” disparaît avec.
Comparaison : OpenAI, Anthropic, Mistral, ou même Poe ne proposent que des abonnements mensuels — jamais des “lifetime deals”.
1. Absence de clause de propriété des données
- Trouvé chez : 1min.ai, Mammouth.ai
- Pourquoi c'est grave : Sans clause explicite, la propriété est ambiguë. En cas de litige, vous n'avez aucun texte contractuel à invoquer.
2. Aucune interdiction d'entraînement de modèles
- Trouvé chez : 1min.ai
- Pattern : Quand un service IA payant NE DIT PAS "nous n'entraînons pas sur vos données", c'est qu'il se réserve le droit de le faire.
- Comparaison : OpenAI, Anthropic, Google le disent TOUS explicitement pour les tiers payants.
3. Juridiction fantôme ou opaque
- Trouvé chez : 1min.ai (Vietnam prétendant Californie)
- Risque : Impossible d'assigner l'entreprise en cas de violation. Aucun recours effectif.
4. Serveurs de localisation inconnue
- Trouvé chez : 1min.ai, Poe
- Problème RGPD : Transferts internationaux sans safeguards documentés.
5. Partage large avec "business partners" non définis
- Trouvé chez : 1min.ai
- Red flag : Porte ouverte au data brokerage.
6. Bots tiers peuvent entraîner sur vos données
- Trouvé chez : Poe
- Impact : Vos conversations professionnelles peuvent finir dans les modèles IA de développeurs inconnus.
7. Décharge de responsabilité pour "loss of privacy"
- Trouvé chez : 1min.ai
- Signal : L'entreprise sait qu'il y a des risques de confidentialité et s'en décharge d'avance.
8. Review farming / incentivisation d'avis
- Trouvé chez : 1min.ai (12M crédits par review)
- Indicateur : Quand un service doit acheter sa réputation, méfiance sur la qualité du service et des pratiques.
⚠️ Signaux d'alerte modérés
9. ToU générique de template
- Trouvé chez : Mammouth.ai
- Problème : Manque de professionnalisme légal pour un service payant.
10. Rétention indéfinie (Poe) ou vague (1min.ai)
- Impact : Vos données peuvent rester stockées bien plus longtemps que nécessaire.
11. Pas de certifications de sécurité
- Trouvé chez : 1min.ai, Mammouth.ai
- Contexte : SOC 2 Type 2 et ISO 27001 sont devenus standard pour services B2B SaaS. L'absence est suspecte.
12. Historique de breach du groupe (Quora 2018)
- Contexte : Poe est opéré par Quora, qui a subi un breach de 100M+ utilisateurs.
❓ Questions sans réponse
Pourquoi ces prix si bas ?
- 1min.ai : 8,5$ le moins cher pour accès à GPT-5, Claude, Gemini
- Mammouth : 10€/mois pour accès à GPT-5, Claude, Gemini
- Poe : Prix d'appel à 5$ par mois, mais pour un usage moins contraignant, l'abonnement à 19,99$ est plus standard, donc ... 20€/mois (plus proche du marché, pas pour une mais pour plusieurs IA)
- Direct : 20€/mois PAR fournisseur
Hypothèses économiques :
- Arbitrage API : Prix bulk API + marge faible (modèle Mammouth explicitement déclaré)
- VC funding : Opération à perte pour gagner des parts de marché (startup classique)
- Limitations non visibles : Quotas, throttling, qualité de service réduite
- Monétisation de données ? : Aucune preuve, mais l'incitation structurelle existe
Note importante : Mammouth déclare explicitement "revenus exclusivement via abonnements" et "pas de revente de données". C'est crédible pour une startup EU sous RGPD. 1min.ai et Poe sont moins clairs.
Recommandations pratiques pour protéger vos données
🛡️ Règles d'or (quel que soit le service)
1. N'ENTREZ JAMAIS :
- Noms, prénoms, adresses
- Numéros de téléphone, emails
- Numéros de carte bancaire, RIB
- Informations de santé (PHI)
- Documents d'identité
- Secrets d'entreprise, code propriétaire
- Données client ou fournisseur
- Mots de passe, API keys
- Informations sur des mineurs
2. Anonymisez systématiquement
- Remplacez les noms par "Personne A", "Entreprise X"
- Supprimez métadonnées avant upload de documents
- Utilisez des exemples fictifs pour illustrations
3. Assumez que tout est permanent
- Même après suppression, les données peuvent persister dans backups
- Les fournisseurs IA ont déjà reçu les conversations (rétention 30j minimum)
- Les modèles "n'oublient jamais" vraiment les données d'entraînement
4. Lisez les privacy shields (Poe)
- JAMAIS utiliser un bot de développeur tiers pour données sensibles
- S'en tenir aux bots officiels (OpenAI, Anthropic, Google, Meta)
5. Email jetable pour inscription
- Utilisez un alias email ou service type SimpleLogin, 33Mail
- Ne liez PAS vos comptes sociaux (Google, Facebook) à ces services
📊 Matrice de décision : Quel service pour quel usage ?
| Type de données | 1min.ai | Poe | Mammouth.ai | OpenAI/Anthropic/Google direct |
| Recherche publique | ⚠️ OK | ✅ OK | ✅ OK | ✅ OK |
| Brainstorming créatif non-sensible | ⚠️ Risqué | ✅ OK (bots officiels) | ✅ OK | ✅ OK |
| Documents de travail | ❌ NON | ❌ NON | ⚠️ Acceptable | ✅ Oui (API/Enterprise) |
| Code propriétaire | ❌ NON | ❌ NON | ⚠️ Risqué | ✅ Oui (avec garanties) |
| Données personnelles | ❌ NON | ❌ NON | ⚠️ Acceptable (RGPD) | ✅ Oui (API/Enterprise) |
| Données santé (HIPAA) | ❌ NON | ❌ NON | ❌ NON | ✅ Oui (avec BAA) |
| Données financières | ❌ NON | ❌ NON | ❌ NON | ✅ Oui (certifiés) |
| Secrets d'entreprise | ❌ NON | ❌ NON | ❌ NON | ✅ Oui (Enterprise + ZDR) |
🔐 Mesures de protection avancées
Si vous devez absolument utiliser un agrégateur :
- Segmentation stricte : N'utilisez les agrégateurs QUE pour usage personnel/public, jamais professionnel
- Audit régulier : Supprimez conversations mensuellement
- Monitoring : Utilisez Google Alerts sur votre nom + "AI training data" pour détecter leaks
- VPN : Masquez votre vraie localisation (limite la collecte de metadata)
- Exercez vos droits GDPR : Demandez annuellement copie de vos données + suppression
- Documents watermarkés : Si upload nécessaire, ajoutez watermark invisible (canary tokens) pour tracer leaks
✅ Alternative recommandée
Pour usage professionnel ou données sensibles :
→ Payez les 20€/mois pour un compte direct (ChatGPT Plus, Claude Pro, Gemini Advanced)
→ Ou API Enterprise avec DPA, BAA, ZDR si nécessaire
Pourquoi ?
- 1 seul contrôleur de données (vs 2+ chez agrégateurs)
- Garanties contractuelles de non-entraînement
- Certifications de sécurité (SOC 2, ISO, HIPAA)
- Recours légal clair en cas de violation
- Support client pour incidents de sécurité
Le surcoût de 10€/mois (20€ direct vs 10€ agrégateur) est une assurance privacy. Pour un usage professionnel, c'est dérisoire comparé au risque de fuite de données.
Verdict final par service (avec scoring)
🚩 1min.ai : DÉCONSEILLÉ
Score global : 2/10
| Critère | Note | Commentaire |
| Propriété données | 0/10 | ❌ Non précisée |
| Interdiction entraînement | 0/10 | ❌ Aucune garantie |
| Localisation/RGPD | 1/10 | 🚩 Juridiction fantôme |
| Partage tiers | 2/10 | 🚩 Clauses ultra-larges |
| Rétention | 5/10 | ⚠️ 1 an max (vague) |
| Droits utilisateurs | 4/10 | ⚠️ Basiques, incomplets |
| Transparence | 2/10 | ❌ Opaque sur l'essentiel |
| Certifications | 0/10 | ❌ Aucune |
Utilisable uniquement pour : Requêtes sur informations publiques, expérimentation non-sensible où vous assumez tout partage.
À éviter absolument pour : Tout le reste.
Problème structurel : Société vietnamienne avec juridiction californienne non prouvée, aucune garantie sur les données, review farming, opacité maximale. Red flags partout.
🚨 Alerte : Le pattern "Lifetime Deal" et campagne marketing agressive
Depuis novembre 2024 , 1min.ai mène une campagne publicitaire massive en France, avec en dernier 4 articles sponsorisés sur Clubic en 3 mois.
Les offres "à vie" sur StackSocial
1min.ai vend des abonnements "Lifetime" (à vie) sur StackSocial pour 24,97$ à 39,99$ selon les périodes, présentés comme une réduction de 89% sur un prix "suggéré" de 234$.
Pourquoi c'est un red flag critique :
1. Le pattern vietnamien classique
- Société offshore (Vietnam) + juridiction déclarée fictive (Californie) + lifetime deals = schéma récurrent de "cash grab"
- Modèle économique : encaisser massivement sur des "lifetime", puis fermer boutique 6-18 mois après
- Aucun recours légal possible pour les acheteurs (entité juridique introuvable)
2. Les plateformes de "deals à vie" : un historique problématique StackSocial et AppSumo hébergent régulièrement des startups qui :
- Vendent des milliers de "lifetime deals"
- Encaissent 200-500k$ en quelques mois
- Ferment le service 6-12 mois après (ou dégradent drastiquement la qualité)
- Laissent les acheteurs avec un accès inutilisable
Exemples récents :
- OmniGPT (breach février 2025) : vendait des lifetime avant de se faire hacker et disparaître
- Dizaines de services SaaS asiatiques ayant suivi ce pattern depuis 2020
3. Campagne marketing agressive sur Clubic
Entre août et novembre 2025, 4 articles sponsorisés sur Clubic :
| Date | Auteur | Prix | Titre (extrait) |
| 01/08/2025 | Oscar Besquent | < 27€ | "L'offre folle de 1min AI" |
| 15/10/2025 | Tom GERARD | 26€ | "Toutes les IA réunies dans un seul outil" |
| 20/10/2025 | Oscar Besquent | 37€ | "C'est possible avec cette solution !" |
| 31/10/2025 | Mathias Lapierre | < 26€ | "À vie !" |
| 10/11/2024 | Clubic Bons Plans | 40€ | "Offre irrésistible à ne pas manquer" |
Observation : 3 auteurs différents, même pitch, aucune analyse critique. C'est une campagne coordonnée de contenu sponsorisé déguisée en articles informatifs.
4. Les techniques de manipulation psychologique
Sur StackSocial, 1min.ai utilise :
- "20k+ Sold! Selling Fast!" = urgence artificielle (FOMO - Fear Of Missing Out)
- "89% Off Expires Soon!" = fausse rareté
- Prix barrés gonflés (234$ → 25$) = ancrage de prix trompeur
Ces techniques sont caractéristiques des arnaques "limited-time offers" qui se répètent indéfiniment.
Pattern recognition : Les signaux d'une sortie de scène imminente
Quand une entreprise combine :
- Juridiction opaque ou fictive ✅
- Offres "lifetime" à -89% ✅
- Campagne marketing agressive et soudaine ✅
- Absence de garanties légales sur les données ✅
- Review farming documenté ✅
→ C'est le pattern classique d'un "exit scam" en préparation.
Le timing est révélateur : pourquoi une société créée en 2023-2024 pousserait-elle autant de publicité maintenant pour vendre du "lifetime" si elle comptait opérer 5-10 ans ?
Hypothèse la plus probable : maximiser les revenus sur 6-12 mois, puis :
- Soit fermer le service ("unsustainable costs")
- Soit dégrader drastiquement la qualité (limitations sévères, modèles obsolètes)
- Soit "pivoter" vers un nouveau modèle payant (rendant les lifetime caducs)
Avertissement aux acheteurs de "Lifetime 1min.ai"
Si vous avez acheté un lifetime deal 1min.ai :
- Considérez votre argent comme perdu d'ici 6-18 mois
- N'utilisez JAMAIS le service pour des données sensibles (voir section précédente sur les risques privacy)
- Aucun recours légal n'est possible en cas de fermeture (entité vietnamienne introuvable, pas d'enregistrement US vérifié)
- Documentez tout : captures d'écran, emails, accès — utile si class action collective organisée par des utilisateurs
Recommandation : Si vous êtes dans la période de rétrocution StackSocial (généralement 60 jours), demandez un remboursement immédiatement.
Sources
- StackSocial Lifetime Deal : https://www.stacksocial.com/sales/1minai-pro-plan-lifetime-subscription
- Articles Clubic : 5 articles entre 10/11/2024 et 01/08/2025 (URLs dans les sources finales)
- Pattern documenté sur r/AppSumo, r/entrepreneur (Reddit) : discussions sur les "lifetime scams" asiatiques
⚠️ Poe (Quora) : USAGE LIMITÉ ACCEPTABLE
Score global : 5/10
| Critère | Note | Commentaire |
| Propriété données | 5/10 | ⚠️ Licence transférable large |
| Interdiction entraînement | 4/10 | ⚠️ Bots officiels OK, tiers NON |
| Localisation/RGPD | 5/10 | ⚠️ US, RGPR compliance limitée |
| Partage tiers | 3/10 | 🚩 Partage massif avec fournisseurs IA |
| Rétention | 5/10 | ⚠️ Indéfini chez Poe, 30j fournisseurs |
| Droits utilisateurs | 7/10 | ✅ Corrects, suppression possible |
| Transparence | 9/10 | ✅ Excellente (trop honnête sur le pire) |
| Certifications | 4/10 | ⚠️ Via Quora (breach historique 2018) |
Points positifs :
- Transparence exemplaire (vous savez exactement ce qui est partagé)
- Privacy shield pour identifier types de bots
- Garantie que bots officiels ne s'entraînent pas sur vos données
Points négatifs :
- Bots tiers PEUVENT entraîner sur vos conversations
- Partage systématique du contenu avec fournisseurs IA
- Couche publicitaire ajoutée (emails hashés)
- Juridiction US avec arbitrage forcé
Acceptable pour : Recherche générale, brainstorming non-propriétaire, éducation — SI vous n'utilisez QUE les bots officiels (OpenAI, Anthropic, Google, Meta).
À éviter pour : Données confidentielles, propriété intellectuelle, informations d'entreprise.
Règle d'or Poe : Vérifiez TOUJOURS l'icône privacy shield. N'utilisez JAMAIS un bot de développeur tiers.
✅ Mammouth.ai : RECOMMANDÉ (avec réserves)
Score global : 8/10
| Critère | Note | Commentaire |
| Propriété données | 6/10 | ⚠️ Non précisée (mais implicite favorable) |
| Interdiction entraînement | 10/10 | ✅ Explicite + documentation fournisseurs |
| Localisation/RGPD | 10/10 | ✅ EEE, conformité RGPD complète |
| Partage tiers | 9/10 | ✅ Pas de revente, fournisseurs IA uniquement |
| Rétention | 9/10 | ✅ Transparence exemplaire, 30j post-suppression |
| Droits utilisateurs | 10/10 | ✅ 7 droits RGPD implémentés |
| Transparence | 9/10 | ✅ Haute (manque ToS IA spécifique) |
| Certifications | 3/10 | ⚠️ Startup récente, pas encore certifiée |
Points positifs :
- Meilleure conformité RGPD des trois services
- Hébergement européen (EEE)
- Engagement explicite de non-entraînement avec documentation des fournisseurs
- Pas de revente de données ni publicité
- Modèle économique transparent (abonnements)
- Droits RGPD complets
- Entreprise française identifiable (SAS, SIREN public)
Points négatifs :
- Propriété des données non explicitement précisée (à corriger)
- ToU générique de template (pas de CGU IA spécifiques)
- Pas de certifications entreprise (SOC 2, ISO 27001)
- Jeune startup (sept 2024) — risque de pérennité
Recommandé pour :
- Utilisateurs EU prioritisant RGPD
- Usage personnel et projets professionnels non-critiques
- Alternative européenne aux services US
- Données personnelles (dans le cadre du RGPD)
Précautions pour :
- Usage entreprise critique : demander clarifications sur IP avant contrats commerciaux
- Données ultra-sensibles : absence de certifications limite l'usage B2B régulé
Conclusion Mammouth : Seul agrégateur des trois qui approche les standards des fournisseurs majeurs pour les garanties privacy. Entreprise sérieuse, jeune mais bien intentionnée. Avec quelques améliorations légales (clause de propriété, ToS spécifiques), pourrait atteindre 9/10.
Conclusion générale : La privacy a un prix
L'investigation révèle une vérité inconfortable : les agrégateurs IA low-cost (- de 100 € par ans) ne peuvent PAS offrir les mêmes garanties de confidentialité que les fournisseurs directs payants (20€/mois chacun) ou leurs tiers API/Enterprise.
Ce que nous avons découvert
1min.ai (2/10) : Opacité maximale, juridiction fantôme, aucune garantie sur données. Déconseillé sauf usage public non-sensible.
Poe (5/10) : Transparent sur des pratiques problématiques (partage massif, entraînement par bots tiers). Usage limité acceptable SI bots officiels uniquement.
Mammouth.ai (8/10) : Seul service avec conformité RGPD sérieuse, engagement de non-entraînement, hébergement EU. Recommandé pour utilisateurs EU et usage non-critique.
Le vrai coût de la "gratuité"
Les 10-15€ économisés par mois (agrégateur vs direct) se paient en :
- Exposition de vos données à de multiples tiers
- Absence de garanties contractuelles
- Risque d'entraînement de modèles (1min.ai, bots tiers Poe)
- Juridictions opaques (1min.ai) ou problématiques (Poe US)
- Points de défaillance multiples (agrégateur + fournisseur IA)
Recommandation finale
Pour usage personnel non-sensible : Mammouth.ai est acceptable (meilleur rapport privacy/prix).
Pour usage professionnel ou données sensibles : Payez les 20€/mois en direct (ChatGPT Plus, Claude Pro, Gemini Advanced) ou utilisez les API Enterprise avec DPA/BAA.
Pattern recognition sur 40 ans : Quand quelque chose est trop bon marché, vous êtes le produit. Les données sont le pétrole du XXIe siècle — et les agrégateurs sont assis sur un gisement que vous leur confiez gratuitement.
La vraie question n'est pas "combien ça coûte" mais "combien valent mes données ?" Si la réponse est "plus de 10€/mois", vous savez ce qu'il vous reste à faire.
Vos données méritent mieux qu'une politique de confidentialité en petits caractères. Agissez en conséquence.
SOURCES ET RÉFÉRENCES
Documents officiels analysés
1min.ai
- Privacy Policy: https://1min.ai/privacy (dernière mise à jour: 31 août 2024)
- Terms of Service: https://1min.ai/terms (dernière mise à jour: 31 août 2024)
- Google Play Store listing: https://play.google.com/store/apps/details?id=ai.ai1min.application
- StackSocial deal: https://www.stacksocial.com/sales/1minai-pro-plan-lifetime-subscription
Poe (Quora)
- Privacy Policy: https://poe.com/pages/privacy
- Terms of Service: https://poe.com/pages/tos
- Privacy Center: https://poe.com/pages/privacy-center
- API Terms: https://poe.com/api_terms
Mammouth.ai
- Privacy Policy (FR): https://info.mammouth.ai/fr/docs/privacy-policy/
- Privacy Policy (EN): https://info.mammouth.ai/docs/privacy-policy/
- About Privacy: https://info.mammouth.ai/docs/about-privacy/
- Terms of Use: https://mammouth.ai/ToU/
- Pappers (registre entreprises FR): https://www.pappers.fr/entreprise/mammouth-ai-932983968
Politiques des fournisseurs majeurs (comparaison)
OpenAI
- Enterprise Privacy: https://openai.com/enterprise-privacy
- API Data Usage Policy: https://openai.com/policies/api-data-usage-policies
- Security & Compliance: https://trust.openai.com
Anthropic
- Commercial Terms: https://www.anthropic.com/legal/commercial-terms
- Privacy Policy: https://www.anthropic.com/legal/privacy
- Constitutional AI Documentation: https://www.anthropic.com/constitutional-ai
- Gemini Data Governance: https://support.google.com/gemini/answer/13594961
- Cloud Data Processing Addendum: https://cloud.google.com/terms/data-processing-addendum
- Security & Compliance: https://workspace.google.com/security
Breaches et incidents de sécurité documentés
OmniGPT Breach (février 2025)
-
Skyhigh Security: "Bot Busted Up: AI ChatBot's Alleged Data Leak"
https://www.skyhighsecurity.com/about/resources/intelligence-digest/bot-busted-up-ai-chatbots-alleged-data-leak.html -
CPO Magazine: "AI Aggregator OmniGPT Suffers a Security Breach Exposing Sensitive Data Including Credentials"
https://www.cpomagazine.com/cyber-security/ai-aggregator-omnigpt-suffers-a-security-breach-exposing-sensitive-data-including-credentials/ -
SiliconANGLE: "AI aggregator OmniGPT reportedly breached, leaking sensitive user data online"
https://siliconangle.com/2025/02/12/ai-aggregator-omnigpt-reportedly-breached-sensitive-user-data-leaked-online/ -
CSO Online: "Hacker allegedly puts massive OmniGPT breach data for sale on the dark web"
https://www.csoonline.com/article/3822911/hacker-allegedly-puts-massive-omnigpt-breach-data-for-sale-on-the-dark-web.html
Quora Breach (novembre 2018)
- Quora officiel : https://blog.quora.com/Quora-Security-Update (annonce officielle du breach)
- TechCrunch : https://techcrunch.com/2018/12/03/quora-breach/
- The Verge : https://www.theverge.com/2018/12/3/18124600/quora-hack-100-million-users-personal-data
- CNET : https://www.cnet.com/tech/services-and-software/quora-says-hackers-got-into-100-million-accounts/
- Wired : https://www.wired.com/story/quora-hack-100-million-users/
Reviews et analyses utilisateurs
1min.ai
- G2.com Reviews & Pricing: https://www.g2.com/products/1min-ai/pricing
- Slashdot Reviews: https://slashdot.org/software/p/1min.AI/
- Capterra Reviews: https://www.capterra.com/p/10020011/1min-AI/reviews/
- GetApp Reviews: https://www.getapp.com/all-software/a/1min-ai/
- StackSocial (Lifetime offers): https://www.stacksocial.com/sales/1minai-pro-plan-lifetime-subscription
- Articles sponsorisée par Clubic : https://www.clubic.com/bons-plans-585001-profitez-du-meilleur-de-l-ia-sans-abonnement-1min-ai-dispo-a-vie-pour-seulement-25.html
- https://www.clubic.com/bons-plans-584080-cette-appli-reunit-chatgpt-midjourney-gemini-pour-moins-de-26-a-vie.html
- https://www.clubic.com/bons-plans-582634-cette-appli-concentre-toutes-les-ia-les-plus-puissantes-et-elle-ne-coute-que-26.html
- https://www.clubic.com/bons-plans-542804-tous-les-outils-ia-a-vie-dans-un-seul-logiciel-et-pour-seulement-40-c-est-l-offre-irresistible-a-ne-pas-manquer.html?utm_source=chatgpt.com
Poe
-
TechCrunch (9 avril 2024): "Poe introduces a price-per-message revenue model"
https://techcrunch.com/2024/04/09/poe-introduces-a-price-per-message-revenue-model-for-ai-bot-creators/ (par Sarah Perez) -
TechCrunch (31 octobre 2023): "Quora's Poe introduces an AI chatbot creator economy"
https://techcrunch.com/2023/10/31/quoras-poe-introduces-an-ai-chatbot-creator-economy/ -
TechCrunch (25 mars 2025): "Quora's Poe launches its most affordable subscription plan"
https://techcrunch.com/2025/03/25/quoras-poe-now-offers-an-affordable-subscription-plan-for-5-month/ (par Lauren Forristal) -
Neowin (26 mars 2025): "Quora Poe's cheapest AI subscription plan now starts at $5/mo"
https://www.neowin.net/news/quora-poes-cheapest-ai-subscription-plan-now-starts-at-5mo/ (par Aditya Tiwari) -
Poe Help Center: "Poe Subscriptions FAQs"
https://help.poe.com/hc/en-us/articles/19945140063636-Poe-Subscriptions-FAQs
Mammouth.ai
- Site officiel: https://mammouth.ai/
-
Cosmo Games (10 juillet 2025): "Mammouth AI : avis, retour d'expérience, fiabilité et limites"
https://cosmo-games.com/avis-mammouth-ai-fiabilite-limites/ - Tekpon Reviews (20 mars 2025): https://tekpon.com/software/mammouth-ai/reviews/
-
Digitiz.fr (10 février 2025): "Mammouth.ai : Accédez aux AI premium en un seul endroit"
https://digitiz.fr/mammouth/
Analyses économiques et business models
Modèles de pricing IA
-
Monetizely (22 avril 2025): "AI Pricing in 2025: Monetizely's Strategy for Costing"
https://www.getmonetizely.com/blogs/ai-pricing-how-much-does-ai-cost-in-2025 -
Drivetrain.ai: "Unit economics for AI SaaS companies"
https://www.drivetrain.ai/post/unit-economics-of-ai-saas-companies-cfo-guide-for-managing-token-based-costs-and-margins -
Alguna Blog (30 juillet 2025): "4 AI pricing models: In-depth comparison"
https://blog.alguna.com/ai-pricing-models/ -
Stripe Blog (11 septembre 2025): "A framework for pricing AI products"
https://stripe.com/blog/a-framework-for-pricing-ai-products
Théorie de l'agrégation
-
Sam Bobo sur Medium (10 septembre 2024): "Applying Aggregation Theory to AI"
https://medium.com/@sam.r.bobo/applying-aggregation-theory-to-ai-7e5d38b6aa7a -
Alexander Stahl sur Medium (23 juin 2024): "Using an AI API — A Financial Breakdown"
https://medium.com/@stahl950/using-an-ai-api-a-financial-breakdown-a85858998514
(Citation: "Gen AI costs have fallen 600x since 2021") -
Gary Fox (12 juillet 2024): "Aggregator Business Model: What Is It And How It Works"
https://www.garyfox.co/aggregator-business-model/ -
Apptunix (2 août 2025): "Aggregator Business Model Explained: A Complete Guide"
https://www.apptunix.com/blog/aggregator-business-model-a-complete-guide/
Sources sectorielles citées
a16z (Andreessen Horowitz) - Citation: "AI SaaS companies operating with gross margins of 50-60% vs 80-85% for traditional SaaS" (2020)
Tom Tunguz (VC, Theory Ventures) - Analyses sur les différences de coûts entre modèles propriétaires et open source (2023)
Bill Gurley - Théorie du "negative gross margin" dans l'industrie de l'IA (référencé via articles Monetizely et Drivetrain)
Méthodologie
Période d'investigation: Octobre - Novembre 2025
Budget investi pour tests: ~30€
Durée des tests actifs: 1 mois
Plateformes testées:
- 1min.ai (offre Pro 6,50$/mois)
- Poe (offre 4,99$/mois)
- Mammouth (offre Starter 10€/mois)
Types de tests effectués:
- Génération de texte (50+ prompts)
- Génération d'images (20+ images)
- Analyse de documents (CV, rapports)
- Génération de code
- Tests de fonctionnalités (historique, suivi consommation, support)
Documents analysés: Privacy policies, Terms of Service, FAQs, documentation technique, articles de presse, reviews utilisateurs, registres d'entreprises
Disclaimer: Les prix et fonctionnalités peuvent évoluer. Cet article reflète l'état des services en novembre 2025. L'auteur n'a reçu aucune compensation des plateformes testées. Les tests ont été réalisés avec des fonds personnels pour garantir l'indépendance éditoriale.
Crédits: Article rédigé avec l'aide de Claude Sonnet 4.5 (Anthropic) via API officielle sur la correction. Recherches et tests: CFI974. Aucun partenariat commercial avec les plateformes mentionnées.
Dernière mise à jour: 7 novembre 2025