Aller au contenu principal

Administration Guides

Deploy a model using Rancher Apps Catalog​

TODO déplacer côté admin

Grâce au graphique Helm inference service, vous pouvez déployer un modèle d'inférence avec Rancher.

Prérequis :

  • Zot disponible dans la liste des registres de Rancher
  • Instance mlflow dĂ©jĂ  en cours d'exĂ©cution
  • Serveur de modèles (kserve) dĂ©jĂ  dĂ©ployĂ©

Find inference-service in Zot Registry​

Dans Rancher, cliquer sur :

  • Apps
  • Charts
  • select zot repository
  • choose inference-service
  • choose a name and a namespace

Complete arguments​

  • Engine: Le moteur du service d'infĂ©rence. Pour un modèle Transformers, c'est huggingface qui doit ĂŞtre utilisĂ©.
  • model URI: Le chemin d'accès au modèle. Cela inclut trois informations essentielles :
    • le texte "mlflow-"
    • Mlflow instance: Le nom du ClusterStorageContainer de l'instance Mlflow Ă  cibler. Dans l'exemple ci-dessous, il s'agit de test1. Vous pouvez exĂ©cuter une commande kube kubectl get ClusterStorageContainer sur le cluster pour voir les options disponibles
    • Model name: Le nom du modèle enregistrĂ© Ă  obtenir. Dans l'exemple ci-dessous, il s'agit de test_fillmask
    • Model version: La version du modèle enregistrĂ© Ă  obtenir. Dans l'exemple ci-dessous, il s'agit de 1.

Complete arguments

Cliquez ensuite sur le bouton « Installer ».

L'installation de l'application :

- télécharge un modèle déjà étiqueté depuis l'instance mlflow ciblée  - le déploie pour l'inférence dans l'espace de noms spécifique demandé