Nothing Special   »   [go: up one dir, main page]

TP 1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 6

TP1: Introduction au Machine Learning (ML)

• L’objectif de ce TP est de vous former au ML et à l’extraction des caractéristiques.


• Vous devez avoir un minimum d’expérience de programmation.
• Sans forcément être un expert, vous devez connaître le langage Python, et si possible
également ses librairies scientifiques.

Partie 1:
Qu'est-ce que Google Colab ?

Colaboratory, souvent raccourci en "Colab", est un produit de Google Research. Colab permet
à n'importe qui d'écrire et d'exécuter le code Python de son choix par le biais du navigateur.
C'est un environnement particulièrement adapté au machine learning, à l'analyse de données et
à l'éducation. En termes plus techniques, Colab est un service hébergé de notebooks Jupyter qui
ne nécessite aucune configuration et permet d'accéder gratuitement à des ressources
informatiques, dont des GPU.

Pour plus de détails voir le site : https://research.google.com/colaboratory/faq.html

Comment utiliser Colab ?

• Créer un dossier nommé "Machine Learning" sur Google Drive


• Créer un nouveau « «notebook » : clic droit > Plus > Colaboratory

• Nous pouvons maintenant commencer à utiliser Google Colab.

1
Partie 2:
Dans cette partie, nous allons voir plusieurs exemples d’extraction des caractéristiques.

1. Image:

Une Image en niveau de gris est représentée souvent par une matrice des valeurs numériques entre 0 et
255. Les machines stockent des images sous forme de matrice de valeurs numériques. La taille de cette
matrice dépend du nombre de pixels contenus dans une image donnée.

Commençons par l'essentiel. Il est important de comprendre comment nous pouvons lire et stocker des
images sur nos machines avant de regarder autre chose. Nous avons une image du chiffre 8. Regardez
bien l’image, vous remarquerez qu'elle est composée de petites cases carrées. On les appelle des pixels.

Figure 1: Une image du chiffre 8

Il y a cependant une mise en garde. Nous voyons les images telles qu'elles sont, sous leur forme visuelle.
Nous pouvons différencier facilement les contours et les couleurs pour déterminer le contenu de l'image.
Les machines, par contre, ont du mal à le faire. Elles stockent les images sous forme de valeurs
numériques (matrice). Regardez l'image ci-dessous :

2
Figure 2: images sous forme de valeurs

Dans le cas d'une image colorée, il existe trois matrices (Rouge, Vert et Bleu). Chaque matrice a des
valeurs entre 0 et 255 représentants l'intensité de la couleur pour ce pixel. Regardez l'image ci-dessous
pour comprendre ce concept.

Mettons maintenant nos connaissances théoriques en pratique.

➢ Lancer Python et charger une image pour voir à quoi ressemble la matrice :

3
➢ Pour un exemple d’extraction des caractéristiques, nous allons utiliser L’algorithme
SIFT qui est utilisé dans le domaine de la vision par ordinateur pour détecter et identifier
les éléments similaires entre différentes images numériques. L'étape fondamentale de la
méthode proposée consiste à calculer ce que l'on appelle les « descripteurs SIFT » des
images à étudier. Il s'agit d'informations numériques dérivées de l'analyse locale d'une
image et qui caractérisent le contenu visuel de cette image de la façon la plus
indépendante possible de l'échelle (« zoom » et résolution du capteur), du cadrage, de
l'angle d'observation et de l'exposition (luminosité).

Figure 3: Image input Figure 4: Image résultat

2. Audio:

Méthode 1 : Pour l’extraction des caractéristiques à partir d’un audio, une méthode de
transformation d’un audio a un spectrogramme peut être réaliser (c’est-à-dire transformer un
fichier audio en une image). Un spectrogramme est la représentation visuelle (image) d’un
audio. Il représente la fréquence en fonction du temps et l’intensité sonore associée à chaque

4
fréquence est représentée par un niveau de couleur : plus le point de couleur est foncé, plus
l’intensité sonore est élevée.

Figure 5: Exemple d'un spectrogramme

Mettons maintenant nos connaissances théoriques en pratique.

➢ Lancer Python et charger un fichier WAV pour voir à quoi ressemble le


spectrogramme :

Figure 6: Spectrogramme résultat

Méthode 2 : Pour traiter directement un fichier audio, les caractéristiques acoustiques les plus
couramment utilisées sont les caractéristique MFCC (Mel-scale Frequency Cepstral
Coefficient). Le MFCC prend en compte la sensibilité de la perception humaine par rapport aux
fréquences. Avec cette méthode, un fichier audio est servi comme entrée et un ensemble des
valeurs numériques sont représentées comme résultat

5
Figure 7: La représentation de l'audio

3. Texte:

Pour le traitement de texte, nous pouvons représenter chaque mot dans une phrase sous forme
de vecteur numérique. Nous pouvons utiliser la bibliothèque NLTK (Natural Language
ToolKit) pour effectuer de nombreuses opérations de prétraitement de texte. NLTK est une
boîte-à-outil permettant la création de programmes pour l'analyse de texte.

Figure 8: Vecteur de mot "science"

Vous aimerez peut-être aussi