DSpace Repository

Étude sur les Méthodes d’Optimisation Utilisée dans l’Apprentissage Automatique

Show simple item record

dc.contributor.author BARAKA, Hodhaifa Abdelghani
dc.date.accessioned 2021-02-01T08:12:11Z
dc.date.available 2021-02-01T08:12:11Z
dc.date.issued 2020-10-27
dc.identifier.uri http://hdl.handle.net/STDB_UNAM/173
dc.description.abstract L’objectif étant de définir le meilleur optimiseur en termes de plus haute résolution et de moindre perte, on explique au passage ce qu’un neurone artificiel et ce qu’un réseau de neurones convolutif ; on ira ensuite comparer plusieurs optimiseurs tels qu’AdaGrad, SGD, RMSprop et Adam en utilisant une base de données de chiffres manuscrits à l’aide d’un code Python basé sur l’architecture d’un réseau de neurones convolutif afin de conclure le meilleur algorithme d’optimisation. en_US
dc.language.iso fr en_US
dc.publisher Directeur: Mr. RIMOUCHE Ali / Co-directeur: Mme. HANDOUZI Wahida en_US
dc.subject CNN, Optimiseurs, Python. en_US
dc.title Étude sur les Méthodes d’Optimisation Utilisée dans l’Apprentissage Automatique en_US
dc.type Thesis en_US


Files in this item

This item appears in the following Collection(s)

Show simple item record

Search DSpace


Advanced Search

Browse

My Account