Cognitive Science">
TP SVM
TP SVM
TP SVM
Année 2022-2023
TP : Machine Learning
TP-SVM
Bonne Chance !
Le SVM cherche l'hyperplan marginal maximal qui divise le mieux l'ensemble
de données en classes.
Bonne Chance !
les hommes et 1 pour les femmes. La lettre n'est pas en majuscule car il
s'agit d'un tableau unidimensionnel.
3- Construisons maintenant un modèle de machine à vecteurs de support.
Scikit-learn fournit une classe de classifieur de machine à vecteurs de
support appelée SVC() pour gérer les classifications.
4- Importez d'abord le module SVM et créez un objet classificateur de
vecteurs de support comme indiqué à la ligne 11.
5- Voyez la ligne 14. La méthode fit() de la classe SVC() est appelée pour
entraîner l'algorithme sur les données d'entraînement, qui sont passées
en paramètre à la méthode fit().
6- Enfin, nous pouvons effectuer des prédictions sur l'ensemble de test en
utilisant predict().
7- La ligne 16 prédit le genre pour une taille, un poids et une pointure
donnés : 160 cm, 60 kg et 7.
Lorsque vous exécutez le code, vous obtiendrez la sortie [1], ce qui
signifie que c'est une femme. Vous avez maintenant construit le premier
classifieur SVM et effectué des prédictions basées sur les données.
Bonne Chance !
sont prétraités et segmentés, chaque segment correspondant à un battement
de cœur.
1- Importez les bibliothèques requises
2- Nous commençons par charger les données et séparer la colonne
cible des caractéristiques d'entraînement.
Bonne Chance !
5- Essayons de comprendre notre variable cible. Nous avons une classe
à un échantillonnage excessif pour la classe "0" « oversampled "0"-
class. oversampled "0"-class. ».
Bonne Chance !
6- Preprocessing :
6.1- nous avons déjà beaucoup de zéros ajoutés à nos données, il est
juste d'utiliser des matrices éparses «Sparse Matrix » à la fin en fixant
un seuil pour notre signal.
6.2- nous pouvons ajouter des informations supplémentaires en
tenant compte de l'amplitude des gradients discrets du signal.
6.2- essayer d'ajouter une convolution manuelle, par exemple avec
une gaussienne discrète. De même, nous pouvons incorporer un
regroupement maximal manuel en utilisant la fonction
pd.DataFrame.rolling.
6.3- rééchantillonnons notre signal en utilisant scipy.signal.decimate.
***
Bonne Chance !
***
2- Etape de prédiction
Bonne Chance !
3- Interpréter la matrice de confusion et l’accuracy et utiliser d’autres
métriques avec leurs interprétations.
4- Interpréter les résultats
Bonne Chance !