Présentation de Red Hat OpenShift AI
Identifier les principales fonctions de Red Hat OpenShift AI et décrire l'architecture ainsi que les composants de la solution Red Hat AI
Projets de science des données
Organiser le code et la configuration à l'aide de projets de science des données, de workbenches et de connexions de données
Notebooks Jupyter
Utiliser des notebooks Jupyter pour exécuter et tester du code de manière interactive
Installation de Red Hat OpenShift AI
Installer Red Hat OpenShift AI et gérer ses composants
Gestion des utilisateurs et des ressources
Gérer les utilisateurs de Red Hat OpenShift AI et allouer des ressources
Images de notebook personnalisées
Créer et importer des images de notebook personnalisées dans Red Hat OpenShift AI
Présentation de l'apprentissage automatique
Décrire les concepts de base de l'apprentissage automatique ainsi que les différents types et les workflows associés
Modèles d'entraînement
Entraîner des modèles grâce à des workbenches par défaut et personnalisés
Amélioration de l'entraînement des modèles avec Red Hat OpenShift AI
Utiliser Red Hat OpenShift AI pour appliquer les meilleures pratiques de l'apprentissage automatique et de la science des données
Présentation de la mise à disposition de modèles
Décrire les concepts et les composants requis pour exporter, partager et mettre à disposition des modèles d'apprentissage automatique entraînés
Mise à disposition de modèles dans Red Hat OpenShift AI
Mettre à disposition des modèles d'apprentissage automatique entraînés avec OpenShift AI
Présentation des pipelines de science des données
Définir et configurer des pipelines de science des données
Utilisation des pipelines
Créer des pipelines de science des données avec le SDK Kubeflow et Elyra
Contrôle des pipelines et essais
Configurer, surveiller et suivre des pipelines à l'aide d'artéfacts, d'indicateurs de mesure et d'essais