Curso Aprendizado por Reforço, Algoritmos Genéticos, NLP e GANs

Técnicas Avançadas de Inteligência Artificial ao seu Alcance

 

CONTEÚDO DAS AULAS

GANs

1) Introdução a Redes Neurais Adversariais (GANs)

2) Transposed Convolutional Layer

3) Upsampling

4) Batch Normalization

5) Leaky ReLU

6) Arquitetura de uma GAN – Generator

7) Arquitetura de uma GAN – Discriminator

8) Programando uma Deep Convolutional GAN

9) Criando um Generator

10) Criando um Discriminator

11) Criando o loop de treinamento da DCGAN

12) Salvando as imagens geradas

13) Treinando e analizando os resultados da GAN

Séries Temporais e Redes Neurais Recorrentes

14) Introdução a Séries Temporais

15) Como funciona uma Rede Neural Recorrente (RNN)

16) Unrolling RNN

17) Truncated Backpropagation Through Time (TBTT)

18) Problemas de uma RNN

20) Como funciona uma Long Short-Term Memory (LSTM)

21) Empilhando LSTMs (Deep Learning)

22) Transformando dados temporais em um problema não temporal

23) Conexões temporais limitadas

24) Utilizando o método Window na prática

25) Aumentando o tamanho da janela

26) Utilizando LSTMs – parte 1

27) Utilizando LSTMs – parte 2

28) Separando Features de Timesteps

29) Utilizando Statefull em LSTM

30) Utilizando Dropout em LSTM

31) Empilhando LSTMs na prática

32) Prevendo o preço de ações na Bolsa de Valores com método Window

33) Prevendo o preço de ações na Bolsa de Valores com LSTM

34) Apresentação do Exercício de Dados Temporais

35) Solução do Exercício de Dados Temporais – Pré-processamento

36) Solução do Exercício  – Treinamento

Processamento de Linguagem Natural

37) O que é Processamento de Linguagem Natural (NLP)

38) O teste de Turing

39) Como transformar textos em números

40) Tokenização de palavras

41) Temporalidade em NLP

42) Modelos baseados em palavras vs caracteres

43) Bidirectional Recurrent Neural Networks (BRNNs)

44) Word Embedding

45) Similaridade entre vetores embedding

46) Matriz Embedding x Vetores Embedding

47) Word2vec Skip-grams

48) Negative Sampling

49) Criando uma matriz embedding com aprendizado supervisionado

50) Sentiment Analysis

51) O problema do viés em NLP

52) A evolução dos Sistemas de Tradução

53) Como funcionam os Sistemas de Tradução

54) Beam Search

55) Length Normalization

56) Como saber qual modelo aperfeiçoar (Beam Search vs RNN)

57) Bleu Score

58) Como funciona o Speech Recognition

59) As funções split() e join()

60) Substituindo strings

61) Transformações entre maiúsculas e minúsculas

62) Extraindo texto de um arquivo .txt

63) Extraindo texto de um arquivo .docx

64) Extraindo texto de um arquivo .PDF

65) Utilizando operadores lógicos para comparar textos

66) Interpretando um arquivo robots.txt

67) Como fazer Web Scraping

68) Expressões Regulares: funções search() e finditer()

69) Expressões Regulares: caracteres coringa

70) Expressões Regulares: trabalhando com mais de um operador

71) Expressões Regulares: conjuntos de caracteres

72) Expressões Regulares: pesquisando por datas

73) Expressões Regulares: a função sub()

74) Prevendo a próxima palavra em um texto – parte 1

75) Prevendo a próxima palavra em um texto – parte 2

76) Prevendo a próxima palavra em um texto – parte 3

77) Exercício: prevendo palavras em letras de uma cantora pop

78) Solução do exercício: prevendo palavras em letras de uma cantora pop

79) Fazendo análise de sentimento em textos

80) Utilizando transfer learning com uma matriz embedding

81) Criando um Sistema de Tradução – parte 1

82) Criando um Sistema de Tradução – parte 2

83) Criando um Sistema de Tradução – parte 3

84) Verificando o Bleu Score da tradução

85) Fazendo Reconhecimento de Fala – parte 1

86) Fazendo Reconhecimento de Fala – parte 2

Aprendizado por Reforço

87) Introdução a Aprendizado por Reforço

88) Como estudar Aprendizado por Reforço

89) Diferenças entre Aprendizado por Reforço e outras técnicas

90) O que são Ações, Estados e Recompensas

91) k-armed Bandit Problem

92) Exploration vs Exploitation

93) 10-armed Bandit Problem

94) Optimistic Initial Values

95) UCB (Upper-Confidence-Bound Action Selection)

96) Otimizando o cálculo da média em cada iteração

97) Associative Search (Contextual Bandits)

98) MDP (Markov Decision Process)

99) Calculando probabilidades de ações, estados e recompensas

100) Ganho Esperado e Fator de Desconto

101) Policy, Value-function e Action-value function

102) Exemplo Gridworld

103) Optimal Policy

104) Iterative Policy Evaluation

105) Policy Iteration (PI)

106) Value Iteration (VI)

107) Dynamic Programming

108) Método de Monte Carlo

109) First-visit MC

110) Every-visit MC

111) Monte Carlo Control

112) On-policy vs Off-policy

113) Temporal Difference Learning – TD

114) Exemplo TD learning

115) Comparando TD learning com Monte Carlo

116) Value-function vs Action-value-function

117) Algoritmo SARSA

118) Algoritmo Q-Learning

119) Exemplo Q-Learning vs Sarsa

120) Deep Q-Learning

121) Experience Replay

122) Double Q-Network

123) Policy Gradient

124) Reinforce com Baseline

125) Actor-Critic

126) Ações contínuas vs discretas

127) A2C e A3C

128) ACKTR (Actor Critic Kronecker-factored Trust Region)

129) PPO (Proximal Policy Optimization)

130) Como o Alpha-Zero funciona

131) Instalando a biblioteca Gym

132) Explorando um ambiente na Gym

133) Criando uma Policy Determinística

134) Visualizando estados com matplotlib

135) Instalando a biblioteca Stable Baselines

136) Equilibrando um bastão com Deep Q-Learning

137) Visualizando um modelo treinado

138) Controlando um braço robótico com Deep Q-Learning

139) Skipping e Stacking

140) Dominando o jogo Pong com Deep Q Learning

141) Utilizando Wrappers

142) Rodando vários ambientes em paralelo com SubprocVecEnv

143) Como salvar o modelo enquanto treina (Checkpoint Callback)

144) Dominando o jogo Breakout com PPO

145) Exercício-Desafio Montain Car

146) Solução do Exercício Montain Car

147) Ensinando um robô a andar com A2C

148) Ensinando um robô a andar em terreno acidentado com ACKTR

149) Dominando o jogo Super Mario Bros com PPO

150) Instalando a biblioteca Gym Retro

151) Instalando jogos extras na Gym Retro

152) Salvando Estados de Jogos

153) Treinando diferentes estados em paralelo

154) Criando função de recompensa personalizada e Discretizando espaço de ações

155) Dominando o jogo Street Fighter com PPO

156) Visualizando uma IA virando o game Street Fighter

157) Fazendo o agente apenas se defender no Street Fighter

158) Carregando e Retomando um Treinamento

Algoritmos Genéticos

159) Como funcionam os Algoritmos Genéticos

160) Algoritmos Genéticos em Redes Neurais

161) Algoritmos Genéticos com DEAP – parte 1

162) Algoritmos Genéticos com DEAP – parte 2

163) Utilizando a função eaSimple()

164) Transformando um indivíduo em arrays de pesos e bias para o Keras

165) Calibrando uma rede neural com Algoritmos Genéticos

166) Reinforcement Learning com Algoritmos Genéticos

Testando seus conhecimentos

EXERCÍCIOS TEÓRICOS

EXERCÍCIOS PRÁTICOS

Muitos exercícios foram elaborados para você colocar em prática tudo o que está aprendendo ao longo do curso. Confira abaixo alguns exemplos de aplicações que você irá aprender:

Séries Temporais

séries temporais - bolsa de valores

Redes Neurais Adversariais (GANs)

redes neurais adversariais - GANs

Processamento de Linguagem Natural

speech recognition - processamento de linguagem natural

Sistemas de Tradução

sistemas de tradução usando NLP

Aprendizado por Reforço

aprendizado por reforço em diversos games

Algoritmos Genéticos

algoritmos genéticos

O QUE OS ALUNOS ESTÃO DIZENDO? 

depoimentos dos alunos sobre o curso

Esses são apenas alguns comentários, você pode conferir mais comentários nessa página.

Pré-requisitos:

Quem já concluiu o Módulo 1, o Módulo 2 e o Módulo 3 possui todos os pré-requisitos necessários para a realização desse curso. 

Para aqueles que não realizaram nossos módulos anteriores, os pré-requisitos mínimos para aproveitar ao máximo esse curso são: conhecimentos em Python para Machine Learning; conhecimentos básicos do Processo de Machine Learning: Treinamento – Previsão – Validação; Redes Neurais Densas; Redes Neurais Convolucionais.

Aproveite essa promoção especial!

Cursos de Machine Learning e Deep Learning com aulas práticas costumam custar acima de R$ 1.000,00.  Porém nesse momento você ainda pode ter acesso a esse módulo 4 com o material de Inteligência Artificial mais didático do mercado por apenas R$ 495,00. Ainda pode parcelar em até 12x de R$ 48,23. 

Logo após a confirmação da compra, você receberá um e-mail automaticamente com os dados de acesso ao curso!

OPÇÃO COMBO:

Quer ainda mais vantagem? Tenha acesso a todos os módulos I, II, III e IV juntos com 50% OFF! Garanta seu pacote completo de cursos por apenas R$ 695,00 (ou até 12x de R$ 67,71) no botão abaixo:

Experimente: se você não ficar totalmente satisfeito, pode solicitar o reembolso dentro do prazo de 7 dias.