Preparar profissionais para a realização de análises visuais e estatísticas de informação e dados, implementação de modelos e algoritmos. Criação de múltiplas formas de visualização de dados e produção de relatórios de todas as nuances da análise. Identificação e resolução de desafios de big data e aplicação de processos de resolução de problemas, modelação e validação.
Requer a marcação de uma Sessão de Orientação Pedagógica e Profissional com a nossa equipa.
Profissionais das áreas de Engenharia, Contabilidade, Economia, Matemática Aplicada ou similares, gestores e profissionais de Marketing Digital, com perfil analítico.
Idade mínima de 18 anos. Formação nas áreas de Engenharia, Economia, Contabilidade, Marketing, Gestão e Matemática Aplicada e/ou experiência profissional em domínio analítico.
Pausa Letiva: Agosto
A certificação é entregue aos alunos em formato digital. Inclui a carga horária, modular e total, do curso temáticas, notas finais de cada módulo e média final do curso, certificação DGERT, carimbo e assinatura da coordenação pedagógica do programa ou administração da escola.
Só pagarás após a inserção no mercado de trabalho através de um financiamento ISA – Income Share Agreement com a Fundação José Neves. Fala connosco para saberes mais!


No curso de Data Science & Business Analytics vamos dar-te o conhecimento necessário para a análise e tratamento de dados, um ponto fundamental para as estratégias de negócio e tomadas de decisão das organizações.
› Definição e aplicações de Data Science — evolução e estado atual
› O ecossistema atual: ML clássico, LLMs e sistemas com agentes
› Data Mining: principais ramos e técnicas
› Python Fundamentals — variáveis, estruturas, funções, bibliotecas centrais
› Carregamento e limpeza de dados com Pandas
› Feature extraction e visualização exploratória inicial
› AI-assisted coding: introdução ao GitHub Copilot e Claude
› Conceito de base de dados e data warehouse
› Modelos relacionais vs. não-relacionais — critérios de escolha
› Principais fornecedores: Snowflake, BigQuery, Databricks, PostgreSQL
› Fact e Dimension tables, chaves e integridade referencial
› Star Schema e Snowflake Schema
› SQL Fundamentals: SELECT, JOIN, GROUP BY, subqueries, window functions
› Vector Databases: o que são e para que servem (pgvector, Pinecone, Chroma)
› Embeddings: representação semântica de dados
› Tipos de dados: numéricos, categóricos, temporais, textuais, geoespaciais
› Estatística descritiva: médias, variância, correlações, quartis
› Dados sujos e em falta: diagnóstico e estratégias de tratamento
› Técnicas de limpeza: imputação, normalização, encoding
› Exploração visual: histogramas, boxplots, scatter plots, heatmaps
› Pandas Profiling e ferramentas de EDA automatizada
› Prompting para análise exploratória com LLMs
› Fundamentos de Information Visualization
› O papel da visualização: explorar vs. comunicar
› Bons e maus exemplos: princípios de Tufte e Cairo
› Plotting com Python: Matplotlib, Seaborn, Plotly
› Dashboards para diferentes audiências
› Construção de um dashboard interativo com Streamlit ou Dash
› AI para narrativa: data storytelling assistido por LLMs
› Ferramentas emergentes: Power BI Copilot, Tableau Pulse
› Business Analytics: definição, tipos e maturidade analítica
› Da pergunta de negócio ao modelo: framework de problema-solução
› KPIs, OKRs e design de métricas
› Forecasting: séries temporais e modelos preditivos para negócio
› Análise de cenários e simulação
› Customer analytics: segmentação, churn, LTV
› LLMs como interface de dados para decisores não técnicos
› Casos de uso por setor: retalho, financeiro, saúde, indústria
› Big Data: definição, ecossistema e os
5 Vs
› Arquitectura de clusters distribuídos
› SQL distribuído: Presto, Trino, Spark SQL
› Processamento distribuído com Apache Spark
› Data Pipelines: conceitos, padrões e boas práticas
› Ferramentas de integração: Fivetran, Airbyte, dbt
› Orquestração: Apache Airflow e Prefect
› Data Lakehouse: Delta Lake, Apache Iceberg
› AI-native stacks: Databricks Unity Catalog, Snowflake Cortex
› Probabilidade: fundamentos e distribuições
› Inferência estatística: estimação e intervalos de confiança
› Testes de hipóteses: t-test, ANOVA, qui-quadrado
› Regressão linear e logística: pressupostos e interpretação
› Análise de séries temporais: decomposição, autocorrelação
› Design de experimentos e A/B testing
› Métricas de avaliação de modelos: RMSE, AUC, F1-score
› Quando o modelo clássico ganha: interpretabilidade e dados tabulares
› Introdução ao Machine Learning: paradigmas e terminologia
› Regressão: Linear, Ridge, Lasso, Random Forest Regressor
› Classificação: Logistic Regression, Decision Trees, SVM, XGBoost
› Feature Engineering e Feature Selection
› Overfitting, regularização e validação cruzada
› Hyperparameter tuning: Grid Search, Optuna
› Unsupervised Learning: K-Means, DBSCAN, PCA, UMAP
› ML clássico vs. LLMs: comparação de paradigmas
› Pipelines ML + LLMs: abordagens híbridas
› Redes Neuronais: arquitectura, activações, backpropagation
› CNNs e RNNs: contexto histórico e aplicações residuais
› Arquitectura Transformer: atenção, encoder, decoder
› Como funcionam os LLMs: pré-treino, fine-tuning, RLHF, instrução
› Prompting avançado: zero-shot, few-shot, chain-of-thought
› Fine-tuning vs. prompting: quando faz sentido cada um
› RAG: arquitectura, componentes, implementação prática
› Embeddings e pesquisa semântica
› Modelos multimodais: visão, áudio, geração de imagem
› Avaliação e limitações dos LLMs: alucinação, viés, custo
› O que são agentes de AI: definição, componentes, taxonomia
› Diferença entre LLM, RAG e sistemas agênticos
› Frameworks: LangChain, CrewAI, AutoGen — conceitos e comparação
› Ferramentas e memória em agentes (tool use, memory, planning)
› Agentic analytics: agentes que fazem EDA, geram relatórios, monitorizam dados
› Vibe coding aplicado: construção acelerada de protótipos com AI
› Segurança, governança e limites dos agentes autónomos
› O futuro próximo: tendências em Agentic AI para Data Science
› Viés nos dados e nos modelos: tipos, origens e consequências documentadas
› Fairness, accountability e transparência em sistemas de AI
› Privacidade e protecção de dados: RGPD e implicações para data science
› EU AI Act: o que muda na prática para quem constrói sistemas com AI
› Explicabilidade e interpretabilidade: XAI e os seus limites
› Riscos de concentração: poder, acesso e assimetrias nos sistemas de AI
› Impacto no trabalho: automação, augmentation e o papel do profissional de dados
› AI Risk Assessment: frameworks e aplicação prática
› O profissional responsável: quando dizer não, como escalar preocupações
Cada tutor do curso está disponível para orientar o desenvolvimento das tuas competências e esclarecer as tuas dúvidas. Fica a conhecer os tutores e os elementos da equipa pedagógica que te vão acompanhar.






Todos os anos, mais de mil alunos escolhem a EDIT. para investir no seu futuro. Conhece alguns dos nossos ex-alunos e fica a saber como é a formação na EDIT.
Student Admissions Manager
Enviar mensagem