Study Group in Brazil

Olá Pessoal, meu nome é Walner de Oliveira, sou de Brasília DF, sou formado em Ciência da Computação e ainda faço outro curso de graduação. Engenharia da Computação no CEUB. Eu fiquei fora nas aulas inicias que foram ao vivo. Estou assintindo agora para pegar o conteudo e estar no nivel da turma.

Tem algum lugar que eu encontre os links mencionados na aula ao vivo? Os brazucas criaram algum outro grupo fora esse forum ?

Boa tarde @Walner,

Então eu falo por mim, optei em batermos um papo por aqui, mas alguns outros optaram em se falar por slack eu prefiro nao misturar as coisas, uma vez que a plataforma do forum (Discourse) é bem mais abertas e da a oportunidade de falar com mais pessoas e fazer networking com outros integrantes. Qto aos links eu acessei mesmo sometne de ver no video procurei no google e achei. Nao tive problemas quando vi o conteudo. E nao me recordo de algum que tenha ficado fora do ar também.

Na primeira semana eu comentei de cada um fazer os experimentos e estudar a API e debatermos sobre o assunto mas como acredito que ninguem teve duvida ainda, nao apareceu ninguem abrir um debate por aqui. Mas assim você é livre pra dar ideias.

Para esta semana estou estudando a API e fazendo experimentos tb.

Oi Willsmar.

Estou assistindo aos vídeos. Confesso que estou bem perdido. Rs!

Acho que o primeiro passo é fazer uso da Cloud para instalar a plataforma Google Compute Platform ou Amazon Web Services EC2 , correto?

Vc já instalou?

Fred, eu sou de Brasilia, Esse grupo que vc se refere é o Erick? Gostaria de participar do grupo de vocês.

Walner

Oi Walner,

hehehe, correto o primeiro passo é se enteirar na plataforma, no que precisa ser instalado e etc.
criar sua instancia de deep learning no cloud ou na sua maquina (caso tenha uma maquina propria para isto)

Sim já instalei.
No forum tem threads especificas de acordo com a instancia que escolher e tutoriais inclusos por lá.

sim. É o mesmo.

Oi willsmar, também sou de Brasília. Se vc nunca criou uma VM antes, sugiro usar Gradient,Sagemaker ou Salamander. Vc vai começar a rodar os notebooks sem esforço e poderá se concentrar no principal, que é a aula. Eu também faço parte do grupo de DLBsb junto com o Fred. Abraço

Nos sábados, nosso curso de ML está neste momento tratando de redes neurais e é uma ótima introdução para quem quer fazer o curso de DL1. Inclusive , o Jeremy chegou a mencionar este curso na última aula… Se quiser aparecer, neste sábado teremos um encontro. Sugiro também se registrar no nosso meetup: https://www.meetup.com/pt-BR/Machine-Learning-Brasilia/ .
Nosso meetup é bem ativo e somos o maior grupo de International Fellowship Students da América Latina.

Olá … acho que mandou a mensage pra pessoa errada não?
Não estou em Brasilia mas em SP.

Fernando, fiquei na dúvida aqui.
Conforme seu comentário que falamos no WhatsApp, vou seguir os passos do GCP, porém, lendo esse seu post, fique confuso. Eu tenho que fazer uma VM também?

Walner

Sim. Seguindo as orientações do Jeremy, ele indica 5 opções: Gradient, Salamander, Sgaemaker, GCP e AWS.
CGP(google) e AWS são passo-a-passo para criar uma instância(VM).

Bom dia pessoal , como estão ? Quais as novidades por ai ?
@ibacaraujo descolou um grupo de estudos ? tu sumiu kra ! hehehe abraços

1 Like

Olá, eu acabei de lançar um tópico de discussão sobre grupos de estudo da Fastai para coletar feedbacks dos organizadores e participantes, a fim de listar as melhores práticas e também para evitar algumas lacunas.

Você encontrará mais informações neste post. Obrigado se você puder participar da discussão :slight_smile:

Ainda não existe uma categoria no fórum para agrupar as discussões relacionadas ao novo curso de NLP da Rachel:

Considerando a estrutura do fórum e sua ampla comunidade de participantes, sugiro que as discussões sobre NLP associadas ao nosso curso presencial, em Brasília, iniciando terça-feira 6 de agosto de 2019, ocorram nessa thread.

Estamos lançando o primeiro curso de NLP organizado pelo grupo de estudo em Deep Learning de Brasília, baseado no curso da Rachel da fast.ai

Os encontros serão às terças pela manhã (9h às 12h) no ISC/TCU, iniciando na primeira terça-feira de agosto, 6/8/2019. Serão 8 encontros de 3h, voltado para programadores, com experiência em python e ML.

Como todos os cursos da fast.ai, esse de NLP também será extremamente prático e voltado para replicar resultados no estado da arte. Conteúdo:
Métodos tradicionais de NLP
Modelagem de Tópicos com SVD e NMF
Classificação de sentimentos com Naive Bayes e Regressão Logística
Derivação de Naive Bayes e Estabilidade Numérica
Revisitando Naive Bayes e Regex
Aprendizado Profundo (Deep Learning): Transferência de aprendizado para NLP
Introdução à modelagem de linguagem
Transferência de aprendizagem
ULMFit para idiomas não ingleses
Deep Learning: tradução Seq2Seq e o Transformer
Noções básicas sobre RNNs
Tradução com Seq2Seq
Algoritmos de geração de texto
Implementando uma GRU
Introdução ao Transformer
O Transformer para tradução de idiomas
Questões Éticas em NLP

Detalhes do curso da fast.ai: https://www.fast.ai/2019/07/08/fastai-nlp/

Peço ajuda para organizarmos essa thread do fórum para uso do curso.
Outro canal para dúvidas pode utilizar nosso grupo no Telegram t.me/DeepLearningBSB

3 Likes

Parabéns pela iniciativa Erick. Graças a seu esforço e dos demais colegas conseguiremos fortalecer a comunidade Brasileira e Sul-Americana.

Dicas do notebook 7 seq2seq:
Tem uma célula que explica a instação da biblioteca fastText do facebook, fiquem atentos pra versão do python que vcs tão usando se for a 3 tem que mudar o pip install que é utilizado pra ser o pip3 install.

E na importação na célula seguinte “import fastText as ft”, tive que deixar o “T” em minúsculo “import fasttext as ft”

Além disso não rodei a descompactação da forma como tá na célula gunzip {path} cc.en.300.bin.gz. Dei um ssh na máquina e rodei lá direto na pasta com gunzip cc.en.300.bin.gz.

E também tive que criar a pasta Models pq no ambiente ela não existia antes de salvar os arquivos ‘fr_emb.pth’ e ‘en_emb.pth’ com o comando os.makedirs(model_path,exist_ok=True).

1 Like

Em diversos notebooks apresentados no vídeo “ULMFit for non-English Languages (NLP Video 10)”, aparece a linha a seguir:
lr *= bs/48

Onde “lr” representa o valor do hiperparâmetro “learning rate” e “bs” representa o valor do “batch size”.

Pesquisando um pouco, encontrei uma explicação plausível para essa vinculação hiperparamétrica:
Quanto “bs” diminui (acarretando maior regularização), “lr” deve diminuir (provocando menor regularização). Isso ajuda a equilibrar o efeito de regularização do modelo após mudanças dos hiperparâmetros.

“It is often better to use a larger batch size so a larger learning rate can be used”

2 Likes

Sou aqui do Rio e gostaria de participar de algum grupo também. Alguém próximo já está em um?

1 Like

Would the proposed study group communicate in Portuguese or in English?

Boa tarde, existe algum canal de comunicação ativo em lingua portuguesa para entusiastas do fast.ai? Adoraria participar :smiley: