Este curso visa capacitar os participantes a transformar dados complexos em visualizações informativas e visualmente impactantes, que apoiem a tomada de decisões estratégicas em contextos empresariais ou académicos.
O curso destina-se a analistas de Dados, Cientistas de Dados, Engenheiros de BI, Gerentes de Projeto e profissionais que já possuem experiência em manipulação de dados e desejam se especializar em visualização.
O curso destina-se a analistas de Dados, Cientistas de Dados, Engenheiros de BI, Gerentes de Projeto e profissionais que já possuem experiência em manipulação de dados e desejam se especializar em visualização.
Conhecimento de estatística básica e análise de dados, familiaridade com processos de limpeza, transformação e exploração de dados. Experiência prática em funções que envolvam manipulação e visualização de dados.
A certificação é entregue aos alunos em formato digital. Inclui a carga horária modular e total do curso, nota final do curso, certificação DGERT.
Este curso foi desenvolvido para profissionais que desejam dominar as técnicas, ferramentas e estratégias necessárias para criar visualizações de dados impactantes e extrair das bases de dados informações relevantes para a tomada de decisão.
› Conceitos fundamentais: o que é análise de dados?
› O ciclo da análise de dados: recolha, limpeza, exploração, modelação e apresentação
› Tipos de dados: estruturados, não estruturados, categóricos e contínuos
› Atividade prática
› Fontes de dados: Ficheiros CSV, APIs, bases de dados, scraping
› Qualidade dos dados: Problemas comuns (valores em falta, inconsistências)
› Transformação de dados: Ferramentas para limpeza (Excel, Pandas em Python)
› Atividade prática
› Métricas descritivas: média, mediana, moda, desvio padrão e variância
› Distribuições de dados: normal, uniforme, assimétrica
› Identificação de outliers: métodos simples, como o IQR
› Atividade prática
› Gráficos básicos: histogramas, gráficos de dispersão, gráficos de barras
› Quando utilizar cada tipo de gráfico?
› Ferramentas: introdução a ferramentas simples, como Excel ou Matplotlib/Seaborn
› Atividade prática
› Fontes de dados: dados internos (ERP, CRM), dados externos (APIs, Web scraping, repositórios públicos)
› Planeamento de coleta: definição de objetivos e requisitos, tipos de dados necessários, política de qualidade
› Automação de coleta: scripts de automação (Python, R) e ferramentas de ETL/ELT
› Exemplos práticos
› Conceito de Integração: por que integrar dados de múltiplas fontes? Desafios e benefícios
› Ferramentas de Integração: ETL (Extract, Transform, Load) vs. ELT (Extract, Load, Transform); plataformas (Talend, Informatica, Pentaho, Airbyte, etc.)
› Arquiteturas de Integração: Data Lake, Data Warehouse, Data Mart
› Casos práticos: configuração de pipelines para integrar dados provenientes de diferentes sistemas; verificação de consistência e qualidade.
› Governança de Dados: metadados, linhagem de dados, segurança e conformidade (LGPD/GDPR)
› Documentação e Catálogo de Dados: ferramentas para rastreabilidade e documentação das tabelas, colunas, atualizações
› Atividade prática
› SELECT, FROM, WHERE, GROUP BY, HAVING, ORDER BY: Revisão rápida
› Tipos de Dados e Funções: numéricos, strings, datas; funções de string, data e conversão
› Tabelas e Relações: Joins (INNER, LEFT, RIGHT, FULL)
› Atividade prática
› Subqueries e CTE (Common Table Expressions): criação de consultas mais legíveis e organizadas
› Window Functions: ranking, partição e agregações móveis (ex.: ROW_NUMBER, LAG, LEAD)
› Modelagem Relacional: normalização, chaves primárias e estrangeiras, boas práticas para modelagem SQL
› Atividade prática
› Índices: tipos de índices, análise de planos de execução
› Técnicas de Tuning: redução de tempo de resposta e de uso de recursos
› Transações e Concorrência: conceitos de ACID, locking, isolamento de transações
› Estudo de caso
› Exploração de Dados Avançada: descoberta de outliers, correlações iniciais, criação de tabelas temporárias
› Integração com Ferramentas Externas: conexão do SQL a Python (Pandas) ou BI Tools para visualização rápida
› Projeto prático final
› O que é dbt (Data Build Tool)? Conceitos básicos e a filosofia de Analytics as code
› Configuração do Ambiente: instalação, diretórios, dependências e integração com Data Warehouses (BigQuery, Snowflake, Redshift, etc.)
› Primeiros modelos: como criar modelos, seeds e snapshots no dbt
› Atividade prática: setup inicial de um projeto dbt, configuração de fontes de dados
› Estrutura de Projeto: pasta de models, staging vs. core vs. marts
› Testes e Validações:testes de singularidade, not null, referências, relacionamentos
› Macros e Jinja: automação de lógicas repetitivas com templates
› Exercício guiado: construção de uma pipeline de transformação de dados do estágio (landing) até o mart analítico
› Documentação: dbt docs generate, criação de documentação automatizada
› Version Control: integração com Git (GitHub, GitLab) para colaboração
› Deployment: CI/CD pipelines, dbt Cloud vs. dbt Core
› Estudo de Caso
› Conexão com Ferramentas de BI: como consumir as tabelas transformadas no Power BI, Tableau ou Looker
› Monitoramento e Observabilidade: alertas, logs e melhores práticas de manutenção
› O que são produtos de dados? Exemplos: recomendadores, dashboards, modelos preditivos, motores de pesquisa
› Diferença entre produtos baseados em dados e análises pontuais
› O ciclo de vida dos produtos de dados: ideação, recolha e preparação de dados, modelação, entrega, manutenção
› Casos reais: Exemplos de produtos de dados em indústrias como tecnologia, saúde, e-commerce e finanças
› Definição do Problema e Requisitos
› Preparação e Qualidade de Dados
› Modelação e Arquitectura do Produto
› Prototipagem e Validação
› Entrega e Métricas de Sucesso
› Manutenção e Escalabilidade
› Mini-projeto final.
› Microsoft Fabric: conceitos, funcionalidades-chave (Data Factory, Data Lakehouse, Synapse, Power BI integrado)
› Revisão de Conceitos de Power BI: Datasets, relatórios, dashboards, workspace, gateways
› Conexão a Diferentes Fontes: Dataflows, DirectQuery vs. Import
› Atividade prática
› Modelos Star Schema e Snowflake: boas práticas de modelagem dimensional
› Relacionamentos e Hierarquias: tipos de relacionamento (1:1, 1:N, M:N), criação de hierarquias de data, geográficas, etc
› DAX Avançado: CALCULATE, FILTER, iteradores (SUMX, AVERAGEX), funções de tempo (DATEADD, SAMEPERIODLASTYEAR)
› Exemplos práticos
› Design de Dashboards: layout, cor, harmonia visual, escolha de visuais adequados
› Visualizações Personalizadas: custom visuals, drill through, tooltips avançados
› Narrativa de Dados (Data Storytelling): como estruturar histórias usando dados e elementos visuais
› Atividade prática
› Apresentação de cenários e datasets possíveis (ou escolha de um dataset real do participante)
› Definição de objetivos, KPIs e questões de negócio que o projeto pretende responder
› Organização das equipas/projetos e planeamento macro
› Recolha de dados e verificação de qualidade Limpeza e integração inicial: ferramentas e métodos vistos nos Módulos 2 e 3
› Documentação inicial: dicionário de dados, diagramas de fluxo
› Criação de modelos analíticos com dbt (ou outra ferramenta escolhida)
› Definição de tabelas dimensionais e factuais
› Implementação de testes e validações
› Integração com o ambiente final (Data Warehouse/Lake)
› Utilização do Power BI (ou outra ferramenta BI) para gerar relatórios/dashboards
› Aplicação de boas práticas de design e storytelling
› Elaboração de storytelling final: contexto, abordagem, descobertas e recomendações
› Apresentação formal para a turma e/ou stakeholders simulados
› Feedback e perguntas do público
Cada tutor do curso está disponível para orientar o desenvolvimento das tuas competências e esclarecer as tuas dúvidas. Um a um, conhece a equipa que te vai acompanhar.
Todos os anos, mais de mil alunos escolhem a EDIT. para investir no seu futuro. Conhece alguns dos nossos ex-alunos e fica a saber como é a formação na EDIT.
Student Admissions Manager
Enviar mensagem