Este tópico permite que membros do Grupo de IA da UnB (Brasília) troquem idéias sobre os projetos de IA que eles desenvolverão usando o conhecimento adquirido no curso fastai parte 1 v3 (2019).
Cada subgrupo deve imaginar um projeto de DL e enviar uma breve descrição do seguinte tipo:
Título: Aplicativo de resumo de artigos em mídia brasileira
Sigla: P1
Descrição: O projeto P1 é um aplicativo de resumo de artigos em mídia brasileira. Há…
Domínios: Criatividade e Mídia
Deep Learning: PLN (modelos de linguagem natural e seq2seq)
Membros: …
É importante que cada projeto use pelo menos um modelo de Deep Learning e crie um aplicativo da Web para usá-lo (além disso, ele pode ter um aplicativo móvel).
A lista completa dos projetos será publicada na primeira semana de novembro. Os subgrupos terão até a última semana de novembro para completá-los para apresentação na Conferência do Grupo IA na UnB na primeira semana de dezembro.
Para obter uma visão geral dos projetos, as siglas dos projetos serão colocados na tabela seguinte (exemplo com o projeto P1):
Olá. Gostaria de saber se tivesse um grupo interessado em desenvolver um assistente de IA para a sociologia?
Conheço 2 professores do ICS/UnB (Instituto de Ciências Sociais), especializados em sociologia da inovação, ansiosos para descobrir como o Deep Learning por meio do PNL poderia ajudar pesquisadores, professores e alunos.
Existem muitas possibilidades, como (lista não exaustiva):
Análise de texto para encontrar entidades como conceitos, pessoas, eventos, etc.
criação automática de resumo de texto
procure textos semelhantes
pergunta / resposta para entender melhor o texto, etc.)
tradutor especializado em sociologia, por exemplo, português francês, muito melhor que o Google Translate
assistente da linguagem sociológica para gerar textos compreensíveis para o público não sociológico
…
Se tiver interesse, entre em contato comigo e agendaremos uma reunião para definir uma meta razoável até dezembro. Obrigado.
Como projeto, que equipe gostaria de criar um aplicativo de reconhecimento facial?
O dataset MegaFace da Universidade de Washington, já usado por Amazon, Google, Mitsubishi, SenseTime, Tencent e outros, pode ajudar por isso:
O conjunto de dados de treinamento Megaface é o maior (em número de identidades) de conjunto de dados de reconhecimento facial disponível publicamente, com 4,7 milhões de faces, 672K identidades e suas respectivas caixas delimitadoras. Todas as imagens obtidas no Flickr (conjunto de dados do Yahoo) e licenciadas sob Creative Commons.
Bom dia. Como projeto, que equipe gostaria de criar um aplicativo usando o Deep Learning na saúde ?
Um amigo meu que tem uma empresa de IA na saúde me falou que as 3 competições no Kaggle da RSNA (Radiology Society of North America) são muito legais para ganhar experiência no DL para a saúde com datasets de imagens verdadeiros (as 3 competições estão no Kaggle). Eis os links:
Olá! Como projeto, qual equipe gostaria de criar um aplicativo usando o Deep Learning para detectar pessoas ou objetos (como carros) em tempo real usando uma câmera?
Treinou um modelo de IA com 99% de precisão? Legal! Mas tem certeza de que seu conjunto de dados de treinamento não está com vieses? O artigo a seguir foi copiado da newsletter The Batch n° 27 do site deeplearning.ai (Andrew Ng).
Seria ótimo ter uma equipe trabalhando em um projeto de DL sobre biais Fale comigo se você estiver interessado.
Biased Data Trains Oppressive AI
Will biases in training data unwittingly turn AI into a tool for persecution?
The fear: Bias encoded in software used by nominally objective institutions like, say, the justice or education systems will become impossible to root out. Result: injustice baked into the very institutions we count on to maintain a fair society. What could go wrong: AI learns from data to reach its own conclusions. But training datasets are often gathered from and curated by humans who have social biases. The risk that AI will reinforce existing social biases is rising as the technology increasingly governs education, employment, loan applications, legal representation, and press coverage.
Behind the worries: Bias in AI is already making headlines.
Models used by healthcare providers to assign care for 100 million patients suffering from chronic ailments like heart disease and diabetes underestimated how urgently black patients needed care, allowing white patients to receive critical care first.
Amazon developed an AI tool to find the best candidates among job applicants. The company abandoned it after an in-house audit found that it rated male applicants much higher than female.
Machine learning doesn’t only absorb biases encoded in data, it amplifies them. In the paper “Men Also Like Shopping,” researchers noted that an image classification model identified the subjects in 84 percent of photos of people cooking as women, even though only 66 of the images actually contained women. Word embeddings used by the model over-associated the act of cooking with female subjects.
How scared should you be: Until companies announce that they train their models on certified bias-free datasets as loudly as they trumpet machine-learning buzzwords, or until such systems pass a third-party audit, it’s a good bet their technology unfairly advantages some people over others.
What to do: In a 2018 keynote, researcher Rachel Thomas explains how machine learning engineers can guard against bias at each step of the development process. She recommends that every dataset come with a sheet describing how the set was compiled and any legal or ethical concerns that occurred to those who assembled it. She also suggests that teams include people from various backgrounds who may be alert to different sorts of bias.