jak najbardziej!
Taka informacja, w Gdansku z Hackerspace organizujemy ’ part 1 study group’. Lekcja 1 we wtorek 4 czerwca o godz 18. Zapraszamy!
Nie wiem czy to już wszyscy wiedza, ale w sumie rozkminiłam jak ubić gcp z poziomu jupytera (np. kiedy zostawiamy vmke na dłuższy czas i chcemy żeby po zakończeniu obiczeń się zamkneła).
def shutdown():
os.system('sudo shutdown -h now')
coś takiego, i dolary w kieszeniu zostają
Tutaj jest skrypcik do odpalania połączenia ssh i odpalania na raz przeglądarki, bo jestem leniwym stworzeniem (przegladarka się wbije wcześniej i będzi trzeba odświerzyć, ale bez tego musiałabym ogarnąc jakoś bardziej, bo przy ssh w terminalu jest wtedy maszynka i tracimy kontekst). Oczywiście jak ktoś ma inny region czy nazwe instancji to trzeba sobie zmienić.
import subprocess
import webbrowser
import sys
import os
zone = "europe-west4-c"
instance_name = "my-fastai-instance"
command = f'gcloud compute ssh --zone={zone} jupyter@{instance_name} -- -L 8080:localhost:8080'
# gcloud compute ssh --zone= "europe-west4-c" jupyter@my-fastai-instance -- -L 8080:localhost:8080
url = 'http://localhost:8080/tree/tutorials/fastai/course-v3/nbs/dl1'
if sys.platform == 'darwin': # in case of OS X
subprocess.Popen(['open', url])
else:
webbrowser.get('firefox').open_new_tab(url)
os.system(command)
Jak tam wszyscy? Zyjecie? Ogarnełam ostatnio więcej czasu i siedze nad plant clef 2016, dochodze już do błędu poniżej 20% i po kilku iteracjach zaczynam coś rozumieć
Dzięk @miwojc @klemenka poszłam dalej, bo wstępnie utknełam na 35% error, co było wynikiem mega słabym. Jak jeszcze dogram to trochę to puszcze notke na bloga o tym i notebook w obrót.
Hej ma ktoś ochotę na quick video conference tonight 21:00 czasu polskiego pochwalić się co kto robi i tak o wszystkim
Ja niestety dzisiaj nie mogę. Ale życzę Wam owocnego meetupu!
Aktualnie lece na LTE po przeprowadzce, więc odpada niestety Teraz wracam do lekcji 3ciej i chce wcisnąć planete na kaggle, potem pokombinowac i zobaczyć jak bardzo uda mi się model ulepszyć.
Czytam też https://hackernoon.com/rtx-2080ti-vs-gtx-1080ti-fastai-mixed-precision-training-comparisons-on-cifar-100-761d8f615d7f, bo próbowałam wrzucić to_p16() do jednego learnera, ale potem się typy tensorów nie zgadzały.
To moze jutro
Mozemy tez czatowac IRC kind of
Aktualnie staram się przebrnąć przez Reinforcement Learning i filmiki od Davida Silver, a przy okazji implementuje i testuje różne rozwiązania np: ostatnio od Google-a Dopamine :), albo PPO2.
Super Możemyy się w weekend jakoś zgadac jak będzie Wam pasować.
Teraz mam jedna rozkmine. Robie testy na np. 2% datasetu i skąd mam wiedzieć czy lr będzie taka sama na całym datasecie? To samo z epochami, nie idzie na małym % przetestować ile epochów idzie pociągnać. Na całości większych datasetów to zajmuje bardzo dużo czasu. Co w takim przypadku robicie?
Tak czy siak w takich przypadkach polecam eksperymenty z fp_16, o wiele szybciej uczenie idzie.
Oczywiście, niedziela możemy ustawić jakiś Zoom
@piotr.czapla spotkałeś się może z zastosowaniem ULMFiT do question answering? trenowane na SQuAD datasecie?