Retour à la liste

Invitefoo

Free
AI TestingDevToolsPenetration TestingOpen Source

À propos

Promptfoo sert de solution pour évaluer et tester la qualité des résultats générés par les grands modèles linguistiques (LLM). Grâce à Promptfoo, les utilisateurs peuvent évaluer leurs invites, leurs agents et leurs systèmes de génération de récupération augmentée (RAG). Il facilite l'équipe rouge, les tests d'intrusion et les évaluations de vulnérabilité pour les LLM. Les utilisateurs peuvent également comparer les performances de différents modèles tels que GPT, Claude, Gemini, Llama et autres. L'outil propose des configurations déclaratives simples et prend en charge l'intégration avec les interfaces de ligne de commande et les pipelines CI/CD.

Fonctionnalités Clés

  • Convivial pour les développeurs :promptfoo fonctionne rapidement et comprend des fonctionnalités conviviales telles que les rechargements en direct et la mise en cache.
  • Testé au combat : conçu à l'origine pour les applications LLM qui s'adressent à plus de 10 millions d'utilisateurs actifs dans un environnement de production. Nos outils sont polyvalents et peuvent être personnalisés pour diverses configurations.
  • Cas de test simples et déclaratifs : configurez des évaluations sans avoir besoin de coder ni de gérer des cahiers complexes.
  • Indépendant du langage : utilisez Python, Javascript ou tout autre langage de programmation.
  • Partager et collaborer : capacités de partage intégrées et visionneuse Web pour la collaboration avec les membres de l'équipe.
  • Open-source : les évaluations LLM sont une offre standard et doivent être fournies uniquement par des initiatives entièrement open source, sans aucune condition.
  • Privé : Cette application fonctionne entièrement sur votre environnement local. Les évaluations se déroulent sur votre appareil et communiquent directement avec le LLM.