19/05/2026
Inscreve-te já e recebe até 750€ de apoio à tua formação. Saber mais

Bootcamp Online
Deep Learning com TensorFlow

19 Maio, 2026'26
16 Junho, 2026
2x375€
Ter, Qua - 19h às 23h
promo
Remote
Pós-Laboral
SOBRE O CURSO

Este curso oferece uma formação prática de 32 horas e progressiva em Deep Learning utilizando TensorFlow 2.x e Keras. Partindo dos fundamentos de Machine Learning — regressão linear e classificação — os formandos avançam até arquiteturas avançadas como CNNs, RNNs, Transformers e GANs, culminando no deployment de modelos em produção. Cada sessão combina exposição teórica com exercícios práticos em datasets reais.

Visão geral

Curso prático de Deep Learning com TensorFlow e Keras. Aprende a construir, treinar e implementar modelos de IA, desde os fundamentos até arquiteturas avançadas.

Objetivos

No final do curso, vais ser capaz de implementar algoritmos de Machine Learning como regressão linear e logística, compreender a base matemática e a lógica das redes neurais e do backpropagation, e construir, treinar e avaliar modelos de Deep Learning com TensorFlow e Keras. Vais também aprender a melhorar a performance dos modelos com técnicas de regularização e otimização, trabalhar com CNNs e Transfer Learning em visão computacional, e processar dados como texto e séries temporais com RNNs, LSTMs e GRUs. Além disso, vais compreender conceitos mais avançados como mecanismos de atenção, Transformers e o impacto dos LLMs, implementar modelos generativos como Autoencoders e GANs, e preparar modelos para produção com ferramentas como TF Serving, TF Lite e Docker.

Dirigido a

O curso é destinado a especialistas e consultores de SEO que pretendem ganhar autonomia técnica, web developers que queiram automatizar a implementação de SEO nos seus projetos, gestores de conteúdos e e-commerce com necessidade de otimização em escala e profissionais de marketing digital que procuram especialização em IA generativa aplicada.

Requisitos

Conhecimentos básicos de programação em Python (variáveis, loops, funções). Noções de álgebra linear e estatística descritiva são recomendáveis mas não obrigatórias — os conceitos matemáticos necessários são revistos durante o curso.

Seg
Ter
19h-23h
Qua
19h-23h
Qui
Sex
Sab
Dom

O que inclui a formação:

32h
Aulas Práticas e Teóricas 32h
Aulas Remote Learning
Total 32h
Carga horária total da formação
certificado-dgert@2x

Curso certificado pela DGERT

A certificação é entregue aos alunos em formato digital. Inclui a carga horária, modular e total, do curso temáticas, notas finais de cada módulo e média final do curso, certificação DGERT, carimbo e assinatura da coordenação pedagógica do programa ou administração da escola.

PROGRAMA DO CURSO

Bootcamp Online
Deep Learning com TensorFlow

Estrutura da Formação Deep Learning com TensorFlow

1 – Fundamentos de Machine Learning: Regressão e Classificação

▸ O que é Machine Learning: aprendizagem supervisionada, não supervisionada e por reforço
▸ Pipeline de ML: recolha de dados, feature engineering, treino, avaliação e iteração
▸ Regressão Linear simples e múltipla: hipótese, função de custo (MSE) e gradient descent
▸ Implementação de regressão linear passo a passo com NumPy
▸ Classificação: regressão logística, função sigmoid e decision boundary
▸ Métricas de avaliação: accuracy, precision, recall, F1-score, AUC-ROC e matriz de confusão
▸ Overfitting vs underfitting: bias-variance tradeoff e validação cruzada (k-fold)
▸ Introdução ao Scikit-learn: pipelines de treino e avaliação

2 – Redes Neurais: Do Percetrão ao Deep Learning

▸ O percetrão: modelo biológico vs modelo computacional
▸ Funções de ativação: Sigmoid, Tanh, ReLU, Leaky ReLU, Softmax — quando usar cada uma
▸ Arquitetura de uma rede neural: camadas de entrada, ocultas e de saída
▸ Forward propagation: do input à previsão, passo a passo
▸ Funções de custo: MSE para regressão, Binary Cross-Entropy e Categorical Cross-Entropy
▸ Backpropagation: a regra da cadeia aplicada ao treino de redes neurais
▸ Gradient descent e as suas variantes: batch, mini-batch e stochastic (SGD)
▸ Introdução ao TensorFlow 2.x: tensores, eager execution, tf.GradientTape
▸ Primeira rede neural com Keras: Sequential API, Dense layers, compile e fit

3 – Treino de Redes Profundas: Regularização e Otimização

▸ Problemas de redes profundas: vanishing e exploding gradients
▸ Inicialização de pesos: Xavier/Glorot e He — como evitar gradientes instáveis
▸ Otimizadores avançados: SGD com momentum, RMSprop, Adam, AdaGrad — comparação
visual e prática
▸ Learning rate scheduling: step decay, exponential decay, cosine annealing e
ReduceLROnPlateau
▸ Regularização L1 e L2 (weight decay): intuição geométrica e impacto nos pesos
▸ Dropout: conceito, taxa ideal e como aplicar em Keras
▸ Batch Normalization: normalizar ativações para estabilizar e acelerar o treino
▸ Early Stopping e callbacks no Keras: ModelCheckpoint, EarlyStopping, TensorBoard
▸ Data augmentation: transformações geométricas e de cor para aumentar o dataset
▸ TensorBoard: monitorização de loss, accuracy, histogramas de pesos e grafos do modelo

4 – Redes Neurais Convolucionais (CNNs) para Visão Computacional

▸  Intuição das convoluções: filtros como detetores de features (bordas, texturas, formas)
▸ Camadas fundamentais: Conv2D, MaxPooling, AveragePooling, GlobalAveragePooling e Flatten
▸ Hiperparâmetros: kernel size, stride, padding (same vs valid) e número de filtros
▸ Arquiteturas clássicas: LeNet-5, AlexNet, VGG-16 — evolução histórica e decisões de design
▸ ResNet e skip connections: como resolver o degradation problem em redes muito profundas
▸ Transfer Learning: reutilizar modelos pré-treinados (ImageNet) para novos problemas
▸ Fine-tuning: estratégias de descongelamento progressivo de camadas
▸ tf.data API: pipelines eficientes com prefetch, cache, shuffle e batch

5 – Redes Neurais Recorrentes (RNNs) & Processamento de Sequências

▸ Dados sequenciais: texto, séries temporais e sinais — porque é que a ordem importa
▸ RNN básica: unfolding, hidden state e o problema da memória de curto prazo
▸ LSTM (Long Short-Term Memory): cell state, gates (forget, input, output) e fluxo de informação
▸ GRU (Gated Recurrent Unit): simplificação do LSTM — arquitetura e quando usar cada um
▸ Bidirectional RNNs e stacked layers: capturar contexto nos dois sentidos
▸ Pré-processamento de texto: tokenização, padding, vocabulário e sequências de inteiros
▸ Word Embeddings: Word2Vec, GloVe e tf.keras.layers.Embedding
▸ Previsão de séries temporais: janelas deslizantes, normalização e walk-forward validation

6- Arquiteturas Avançadas: Transformers, Autoencoders e GANs

▸ Limitações das RNNs: processamento sequencial e dificuldade com dependências longas
▸ Mecanismo de Atenção: intuição (query, key, value), score functions e self-attention
▸ Arquitetura Transformer: encoder-decoder, multi-head attention e positional encoding
▸ Visão geral de BERT, GPT e LLMs: como os Transformers mudaram o NLP e a IA
▸ Autoencoders: arquitetura encoder-decoder para compressão e reconstrução de dados
▸ Variational Autoencoders (VAEs): espaço latente contínuo e geração de novos dados
▸ GANs (Generative Adversarial Networks): o jogo entre generator e discriminator
▸ DCGAN: geração de imagens com convoluções — arquitetura e técnicas de estabilização

7- Deploy de Modelos & Introdução a MLOps

▸ Do notebook à produção: desafios reais de deployment (latência, escala, monitorização)
▸ Salvamento de modelos: SavedModel format, HDF5, TF Checkpoints e versionamento
▸ TensorFlow Serving: servir modelos via REST API e gRPC
▸ TensorFlow Lite: otimização para dispositivos móveis e edge computing
▸ TensorFlow.js: execução de modelos no browser — casos de uso e limitações
▸ Otimização de modelos: quantização (post-training e quantization-aware) e pruning
▸ Conceitos de MLOps: versionamento de dados e modelos, CI/CD para ML, monitorização de
drift
▸ Introdução ao TFX (TensorFlow Extended): componentes de um pipeline ML em produção
▸ Docker básico: containerizar um modelo para deployment reprodutível

8- Projeto Final: Aplicação End-to-End de Deep Learning

▸ Definição do problema e seleção do dataset (orientação individualizada pelo formador)
▸ Análise exploratória dos dados (EDA) e pré-processamento
▸ Seleção e justificação da arquitetura: CNN, RNN, Transformer ou combinação
▸ Treino com regularização, otimização e monitorização via TensorBoard

▸ Avaliação com métricas adequadas ao problema e análise de erros (confusion matrix, exemplos
mal classificados)
▸ Exportação do modelo para deployment (SavedModel ou TFLite)
▸ Apresentação final: pitch técnico de 10 minutos por aluno/grupo
▸ Feedback bidirecional, discussão de melhorias e próximos passos

Claude Code


Tutor e Equipa Pedagógica

Conhece a equipa

O tutor do curso está disponível para orientar o desenvolvimento das tuas competências e esclarecer as tuas dúvidas. Fica a conhecê-la e a equipa pedagógica.

pt
Sergio

Sérgio Santos

Pedagogical & Front-Desk Assistant

Departamento Pedagógico

pt
Mariana (1)

Mariana Pereira

Pedagogical Manager

Departamento Pedagógico

ALUMNI

Estudar na EDIT.

Todos os anos, mais de mil alunos escolhem a EDIT. para investir no seu futuro. Conhece alguns dos nossos ex-alunos e fica a saber como é a formação na EDIT.

Perguntas frequentes

Cheque Formação + Digital (IEFP)

Existem pré-requisitos para este workshop?

Este workshop é certificado?

Que opções de pagamento oferecem?

As aulas são gravadas?

Necessitas de ajuda para escolher o curso certo?

Envia-me uma mensagem por aqui ou utiliza o botão Whatsapp

Francisco Freitas

Student Admissions Manager

Enviar mensagem
Remote Learning / Inteligência Artificial
Bootcamp Online
Deep Learning com TensorFlow

Detalhes
DATAS
Remote
32 horas
2x375€
Ter, Qua - 19h às 23h

Informação Pessoal


    Chat on WhatsApp

      Fale connosco

      Interesses

        Subscrever Newsletter

        Interesses

        Privacy Overview
        EDIT.

        This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.

        Necessários

        Os cookies necessários ajudam a tornar um website útil, permitindo funções básicas, como a navegação e o acesso à página para proteger áreas do website. O website pode não funcionar corretamente sem estes cookies.

        Estatísticas

        Os cookies de estatística ajudam os proprietários de websites a entenderem como os visitantes interagem com os websites, recolhendo e divulgando informações de forma anónima.