Salut Je suis Ă Antibes et en train de recherche un premier job en Data Scientist
Bonjour a tous !
Je serai ravi de rejoindre ce groupe.
Yop
Chaud aussi pour rejoindre le groupe!
Il y a tâil un slack/discord ou câest basĂ© sur du meetup?
Salut !
Y a-t-il des live viewers en ce moment ?
Bonjour a tous. ie je suis du danemark et parle francais
Hi everyone,
I live in Tours if anyone wants to make an in person study group.
free credits are only for those taking the course in person?
It seems that if you sign up to GCP you will get free credit. but Iâm not sure for AWS.
On AWS you have the free tier for most services during the first year but I thought they were giving free credits to students
Comment voulez-vous quâon sâorganise ? Est-ce quâon fait une conversation sur ce forum comme Jeremy lâa suggĂ©rĂ© ?
Oui on peut faire ça, je pense quâil nâest pas nĂ©cessaire de reproduire le thread : Lesson 1: class discussion and resources
Nos threads pourrait se concentrer sur les questions/avancées liées à chaque leçon.
Bienvenu !
Il nây a rien dâautre que cette discussion pour le moment.
Que diriez-vous de faire un Hangout vidéo ce mercredi à 21h (heure de Paris) pour discuter du cours de cette nuit ?
Pour ceux que ça intĂ©resse jâai crĂ©Ă© un dataset dâavions A380 et B747 lors de la version prĂ©cĂ©dente du cours :
https://github.com/trancept/deep_learning_tests/blob/master/012-Binary_Classification_747_vs_A380-essential.ipynb (Aujourdâhui lâaffichage nâa pas lâair de fonctionner dans GitHubâŠ)
Je suis ne train de le refaire avec la nouvelle version dâAPI.
Si ça vous intéresse je peux vous partager le dataset. Les images viennent de Google Image.
Bonjour Ă tous,
je suis de la région de Strasbourg.
Câest mon premier cours de fast.ai que je suis. (depuis le temps que je mây intĂ©resse ^^)
Je connais Python mais pas encore la librairie PyTorch.
Mon background : ingé info.
Jâai commencĂ© Ă regarder la vidĂ©o du cours.
Une bonne partie du dĂ©but de la vidĂ©o concerne la mise en place du cours en prĂ©sentiel dĂ©jĂ 30 min. vous pouvez zapper le dĂ©but ! (ça commencera Ă lâheure exacte pour les prochaines sessions)
Ceux sur place doivent sâorganiser en groupe de 6.
Ceux suivant en live le font sur un groupe dâĂ©tude, nous par exemple qui frĂ©quentons ce fil de discussion formons un groupe dâĂ©tude, mais jâimagine que vous pouvez vous organiser pour des projets prĂ©cis.
Il est proposé de créer/utiliser un outil de collaboration quelconque. Un googlesheet ou autre. Un calendrier pour nos discussions éventuelles live serait éventuellement utile.
Lâhoraire me va, mais je ne sais pas combien jâaurai avancĂ©.
Je compte faire tourner sur ma propre machine, jâai vu un tuto qui semblait pas trop long. Bien que lâoption cloud payant soit tentante (mais aucune idĂ©e de combien dâheures totales de calcul on va avoir besoin ?!)
Ă bientĂŽt
Welcome.
Si tu as un GPU et que tu es familier dâUbuntu câest effectivement facile dâinstaller tout le systĂšme: 4 lignes Ă copier-coller.
Donc mieux vaut le faire en local si tu es Ă©quipĂ©, câest ce que je fait. Ca Ă©vite de payer pour rien, tu peux lancer des calculs plus long pour amĂ©liorer la prĂ©cision des modĂšles et faire autant de test que tu veux sans la pression du coĂ»t.
Je suis OK pour le Hangout mercredi.
Je pense que je vais acheter une nouvelle machine pour travailler en local.
Ram 16Go, Intel core i7, NVIDIA GeForce GTX 1070, SSD 480 Go, tu penses que ça suffit ?
ok pout le hangout mercredi
A mon tour de me présenter:
Je suis Ă©tudiant en IngĂ©, jâai donc forcĂ©ment moins dâexpĂ©rience que vous mais je suis bien motivĂ©!
Jâai dĂ©jĂ utilisĂ© Python et un peu utilisĂ© Pytorch (mais souvent pour des programmes assez simples).
Jâai aussi commencĂ© Ă mâintĂ©resser aux maths appliquĂ©s qui servent dans le Deep Learning (descente de gradient, convolutionsâŠ)
Enfin je suis surtout intĂ©ressĂ© par la partie computer vision du Deep Learning mais jâaime le reste aussi!
Bonjour,
Avec plaisir pour Ă©changer avec celles et ceux qui suivent le cours fastai. Voici une timeline de la vidĂ©o de la lesson 1 dâhier (avec les liens vers les parties correspondantes dans la video).
Accueil
- (sans lien avec le DL) Discours dâaccueil de Pete Baker : https://www.youtube.com/watch?v=7hX8yKCX6xM&t=1580
- (sans lien avec le DL) Discours dâaccueil de David Uminsky (Director of the USF Data Institute): https://www.youtube.com/watch?v=7hX8yKCX6xM&t=1869
Jeremy Howard
-
Accueil et informations générales : https://www.youtube.com/watch?v=7hX8yKCX6xM&t=1964
-
Thread sur la lesson 1 dans le forum : https://www.youtube.com/watch?v=7hX8yKCX6xM&t=2415
â Thread : https://forums.fast.ai/t/lesson-1-class-discussion-and-resources/27332
â Docs sur le cours : http://course-v3.fast.ai/
â Docs sur fastai en html : http://docs.fast.ai
â Docs sur fastai dans github : https://github.com/fastai/fastai_docs
â Docs sur fastai en jupyter notebooks : https://github.com/fastai/fastai_docs/tree/master/docs_src -
Setup de GPU en ligne : https://www.youtube.com/watch?v=7hX8yKCX6xM&t=2502
â installer un GPU : http://course-v3.fast.ai/#using-a-gpu
â FAQ sur le cours : https://forums.fast.ai/t/faq-and-resources-read-this-first/24987 -
DĂ©but du cours : https://www.youtube.com/watch?v=7hX8yKCX6xM&t=3142
â Jupyter notebook : https://github.com/fastai/course-v3/blob/master/nbs/dl1/00_notebook_tutorial.ipynb
Notebook 1
(https://github.com/fastai/course-v3/blob/master/nbs/dl1/lesson1-pets.ipynb)
-
Etape 1 : importer et préparer les images (https://www.youtube.com/watch?v=7hX8yKCX6xM&t=3890)
â crĂ©ation du dataset gĂ©nĂ©raldatabunch
qui contient les 3 datasets train, val et test
-
Etape 2 : créer le modÚle (https://www.youtube.com/watch?v=7hX8yKCX6xM&t=5274)
â crĂ©ation du modĂšlelearn
qui contient lâarchitecture du rĂ©seau neuronal et le datasetdatabunch
(on peut y ajouter la mĂ©trique dâĂ©valuation de lâerreur sur le val set)
â Transfert Learning : on utilise les paramĂštres dâun modĂšle dĂ©jĂ entraĂźnĂ© Ă reconnaĂźtre des objets dans des images (resnet34)
â Overfitting : pour vĂ©rifier que pendant son entraĂźnement notre modĂšle ne se spĂ©cialise pas sur le train set mais apprend bien Ă reconnaĂźtre les caractĂ©ristiques gĂ©nĂ©rales des objets Ă dĂ©tecter, on utilise un val set sur lequel on calcule lâerreur (cf. mĂ©trique ci_dessus dans le modĂšlelearn
)
-
Etape 3 : entraßner le modÚle avec la méthode
fit_one_cycle()
et non plusfit()
comme dans la version prĂ©cĂ©dente du cours (explication du papier de Leslie Smith dans lâarticle de @sgugger : The 1cycle policy)
Reprise aprĂšs la pause : https://www.youtube.com/watch?v=7hX8yKCX6xM&t=6536
-
Etape 4 : analyser les prĂ©visions faites par le modĂšle pour comprendre son fonctionnement et Ă©ventuellement lâamĂ©liorer (https://www.youtube.com/watch?v=7hX8yKCX6xM&t=7922)
â utilisation de lâobjetinterp
instancié par la méthodeClassificationInterpretation.from_learner(learn)
â 3 mĂ©thodes Ă utiliser sur lâobjetinterp
:
âplot_top_losse()
pour visualiser les images sur lesquelles le modÚle génÚre une grosse erreur (loss),
âplot_confusion_matrix()
qui affiche la Confusion Matrix,
âmost_confused()
qui publie la liste des labels (classes) prĂ©dits avec le plus grand nombre dâerreurs -
Etape 5 : améliorer le modÚle (https://www.youtube.com/watch?v=7hX8yKCX6xM&t=8310)
â rechercher le meilleur Learning Rate avec la mĂ©thodelr_find()
puisrecorder.plot()
(pour afficher la courbe loss-vs-lr)
â utiliser alors la mĂ©thodeunfreeze()
sur le modĂšlelearn
afin de pouvoir entraĂźner toutes les couches du rĂ©seau resnet34 et pas seulement celles ajoutĂ©es Ă la fin du modĂšle afin dâavoir une architecture capable de donner une probabilitĂ© pour chacune des 37 classes⊠MAIS en utilisant des Learning Rate diffĂ©rents selon les couches vialearn.fit_one_cycle(2, max_lr=slice(1e-6,1e-4))
: lâidĂ©e est que les premiĂšres couches nâont pas besoin dâĂȘtre beaucoup modifiĂ©es car elles ont Ă©tĂ© entraĂźnĂ©es Ă dĂ©tecter des formes gĂ©omĂ©triques simples qui se retrouvent dans toutes images. -
Etape 6 : on peut obtenir encore un meilleur résultat (une erreur plus faible) en changeant de modÚle et en utilisant un modÚle plus compliqué (plus profond) comme resnet50 (https://www.youtube.com/watch?v=7hX8yKCX6xM&t=9018)
Merci @pierreguillou.
Je vais me prĂ©senter aussi : Je bosse depuis 20 ans dans le dev, principalement sur des projets web en tant que chef de projet technique. En ce moment je suis freelance sur du big data et jâaimerais Ă©voluer vers des projets de Deep Learning. Le computer vision me passionne aussi mais il faut savoir que ce qui intĂ©resse majoritairement les entreprises câest lâanalyse de donnĂ©es structurĂ©es (base de donnĂ©es dâhistorique de ventes par exemple), puis le NLP et en dernier lieu les images.
@Mathieu : pas facile de conseiller une machine : il faut prendre le plus gros GPU que tu puisses tâoffrir, mais ça pĂ©rime vite aussi alors une GTX 1070 nâest pas un mauvais choix car il y a quand mĂȘme 8Go. Pour la RAM assure toi de pouvoir ajouter 16Go si besoin plus tard car 32Go peuvent ĂȘtre bĂ©nĂ©fique pour le machine learning classique avec Pandas. Mais ça nâa rien dâobligatoire.
Personnellement jâai une bĂȘte de course avec 32 cĆurs, 32Go de RAM, SSD NVME et GTX1080ti. Donc pas trop dans le budget dâun Ă©tudiantâŠ
Vu le prix du matos acheter une machine correcte comme tu le proposes est un bon choix. Rien ne tâempĂȘche quand tu as trouvĂ© les bons paramĂštres en local de louer du cloud pour faire tourner ton modĂšle sur des machines plus grosses.