Conformité AI Act & Éthique
Engagements de Phenix IA pour une Intelligence Artificielle responsable.
Chez PHENIX CORPORATION, nous croyons fermement que l'innovation en intelligence artificielle doit aller de pair avec la sécurité, la transparence et le respect des droits fondamentaux. En tant que fournisseur de solutions d'IA générative B2B en France, nous nous engageons à respecter les normes les plus strictes, y compris le nouveau Règlement européen sur l'IA (AI Act), le RGPD et la loi pour la confiance dans l'économie numérique (LCEN).
ARTICLE 1 - CONFORMITÉ AVEC L'AI ACT EUROPÉEN
Le Règlement (UE) 2024/1689, dit "AI Act", établit un cadre juridique harmonisé pour l'intelligence artificielle au sein de l'Union Européenne. Phenix IA s'inscrit pleinement dans cette démarche de conformité.
1.1. Classification des systèmes et responsabilités
Phenix IA fournit une plateforme permettant la création et le déploiement de collaborateurs virtuels. Ces systèmes d'IA sont, par défaut, considérés comme des systèmes d'IA à finalité générale (General Purpose AI Systems - GPAIS) ou des systèmes à "Risque Limité" (Limited Risk), selon l'usage qu'en fait le Client.
En tant que fournisseur de GPAIS, Phenix IA s'engage à respecter les obligations spécifiques qui lui incombent au titre de l'AI Act. Cependant, il est crucial de noter que :
- Le Client (l'Entreprise utilisatrice) est le "déployeur" du système d'IA. Il est seul responsable de l'évaluation de la conformité de son usage spécifique, notamment si celui-ci relève d'une catégorie d'IA à "haut risque" au sens de l'AI Act.
- Il appartient au Client de s'assurer que l'utilisation de l'IA respecte toutes les obligations légales et réglementaires applicables à son secteur d'activité et à ses cas d'usage.
1.2. Obligations de transparence
Conformément à l'article 50 de l'AI Act, Phenix IA intègre par défaut des mécanismes de transparence :
- Les collaborateurs virtuels sont conçus pour que l'utilisateur final (humain) soit informé qu'il interagit avec une machine (IA) et non un être humain, sauf si cela est évident de par le contexte.
- Les contenus générés par l'IA sont identifiables comme tels au sein de notre architecture technique.
Il appartient au Client de maintenir ces paramètres de transparence lors du déploiement des agents auprès de ses propres utilisateurs ou employés.
ARTICLE 2 - DONNÉES D'ENTRAÎNEMENT ET CONFIDENTIALITÉ (RAG)
L'un des piliers de Phenix IA est la souveraineté et la confidentialité des données de nos clients. Notre approche est basée sur une architecture technique robuste et des garanties contractuelles claires.
2.1. Technologie RAG (Retrieval Augmented Generation)
Les collaborateurs virtuels fonctionnent principalement sur le principe de la Génération Augmentée par Récupération (RAG). Cela signifie que l'IA utilise vos documents et bases de connaissances pour formuler une réponse, sans pour autant "apprendre" de ces données pour modifier son modèle global.
2.2. Cloisonnement des données et souveraineté
- Hébergement exclusif en France : L'intégralité des données que vous confiez à Phenix IA (bases de connaissances, logs, etc.) sont hébergées exclusivement sur des serveurs de OVH et de GCP situés dans la région de Paris, France. Aucune donnée n'est stockée en dehors de l'Union Européenne.
- Pas d'entraînement partagé : Les données que vous chargez sur Phenix IA (PDF, textes, procédures) pour nourrir vos collaborateurs virtuels sont strictement cloisonnées. Elles ne sont JAMAIS utilisées pour entraîner ou améliorer les modèles de fondation (LLM) utilisés par d'autres clients ou par le fournisseur de modèle.
- Souveraineté : Vos bases de connaissances restent votre propriété exclusive. Phenix IA agit en tant que sous-traitant de vos données, conformément à notre Politique de Confidentialité.
- Sécurité : Les vecteurs de données sont stockés dans des environnements sécurisés, chiffrés et isolés par locataire (tenant).
Pour plus de détails sur le traitement de vos données personnelles et nos rôles respectifs (responsable de traitement / sous-traitant), veuillez consulter notre Politique de Confidentialité.
ARTICLE 3 - SUPERVISION HUMAINE (HUMAN-IN-THE-LOOP)
Phenix IA conçoit ses outils comme des assistants pour l'humain, et non comme des substituts autonomes décisionnaires pour des tâches critiques. Nous recommandons fortement à nos Clients de mettre en place des procédures de "Human-in-the-loop" (Supervision humaine), en particulier si les collaborateurs virtuels sont utilisés pour :
- Des prises de décision ayant un impact juridique, financier ou personnel.
- La génération de contenus destinés à être publiés sans vérification.
- L'interaction avec des personnes vulnérables.
Phenix IA décline toute responsabilité en cas d'automatisation totale par le Client de processus sensibles sans supervision humaine adéquate. Le Client est seul responsable de la validation et de l'usage final des contenus générés par l'IA.
ARTICLE 4 - ÉTHIQUE ET BIAIS
Nous mettons en œuvre des garde-fous techniques (System Prompts, filtres de sécurité) pour minimiser les risques de génération de contenus haineux, discriminatoires, biaisés ou illégaux. Toutefois, l'IA générative étant probabiliste, le risque zéro n'existe pas. Phenix IA s'engage à :
- Fournir des outils permettant au Client de définir les limites comportementales de ses collaborateurs virtuels.
- Intervenir rapidement en cas de signalement de comportements déviants d'un modèle.
- Suivre les évolutions de l'état de l'art en matière de sécurité de l'IA (AI Safety).
ARTICLE 5 - PROPRIÉTÉ INTELLECTUELLE DES CONTENUS GÉNÉRÉS
Sous réserve des lois en vigueur et des conditions spécifiques des fournisseurs de modèles tiers (LLM) utilisés en arrière-plan :
- Inputs : Le Client conserve la propriété intellectuelle intégrale des données (prompts, documents) qu'il fournit à la plateforme.
- Outputs : Phenix IA cède au Client, dans la mesure permise par la loi et sous réserve du respect des présentes CGVU, l'ensemble des droits sur les contenus générés par les collaborateurs virtuels dans le cadre de son abonnement. Le Client est libre d'utiliser, publier ou commercialiser ces contenus, sous sa seule responsabilité.
Il incombe au Client de s'assurer que les contenus générés par l'IA ne violent pas les droits de propriété intellectuelle de tiers (droit d'auteur, marques, etc.) et ne contiennent pas d'éléments diffamatoires, illégaux ou contraires à l'ordre public.
ARTICLE 6 - RESPONSABILITÉ DU CLIENT
En utilisant Phenix IA, le Client s'engage à ne pas configurer ou utiliser de collaborateurs virtuels pour :
- Générer du contenu illégal, diffamatoire, pornographique ou haineux.
- Mener des campagnes de désinformation ou de manipulation de l'opinion.
- Effectuer du profilage biométrique ou de la surveillance de masse (interdits par l'AI Act).
- Fournir des conseils médicaux, juridiques ou financiers sans les avertissements nécessaires, sans supervision humaine qualifiée et sans les autorisations requises.
- Traiter des données de santé à caractère personnel sans respecter le cadre légal spécifique applicable (ex: certification HDS).
Phenix IA se réserve le droit de suspendre tout compte ne respectant pas ces principes éthiques fondamentaux et les Conditions Générales de Vente et d'Utilisation.
ARTICLE 7 - CONTACT CONFORMITÉ
Pour toute question relative à l'éthique de nos IA, à la conformité AI Act ou à la sécurité des modèles, vous pouvez contacter notre référent IA :
- Par email via notre formulaire de contact.
- Par courrier : PHENIX CORPORATION – Service Conformité Phenix IA - 229 rue Saint Honoré, 75001 PARIS .