O Gov Hub BR é uma iniciativa para enfrentar os desafios da fragmentação, redundância e inconsistências nos sistemas estruturantes do governo federal. O projeto busca transformar dados públicos em ativos estratégicos, promovendo eficiência administrativa, transparência e melhor tomada de decisão. A partir da integração de dados, gestores públicos terão acesso a informações qualificadas para subsidiar decisões mais assertivas, reduzir custos operacionais e otimizar processos internos.
Potencializamos informações de sistemas como TransfereGov, Siape, Siafi, ComprasGov e Siorg para gerar diagnósticos estratégicos, indicadores confiáveis e decisões baseadas em evidências.
- Transparência pública e cultura de dados abertos
- Indicadores confiáveis para acompanhamento e monitoramento
- Decisões baseadas em evidências e diagnósticos estratégicos
- Exploração de inteligência artificial para gerar insights
- Gestão orientada a dados em todos os níveis
A arquitetura do Gov Hub BR é baseada na Arquitetura Medallion, em um fluxo de dados que permite a coleta, transformação e visualização de dados.
Para mais informações sobre o projeto, veja o nosso e-book. E temos também alguns slides falando do projeto e como ele pode ajudar a transformar a gestão pública.
Esse trabalho é mantido pelo Lab Livre e apoiado pelo IPEA/Dides.
Para dúvidas, sugestões ou para contribuir com o projeto, entre em contato conosco: lablivreunb@gmail.com
O Data Pipeline Project é uma solução moderna que utiliza ferramentas como Airflow, DBT, Jupyter e Superset para orquestração, transformação, análise e visualização de dados.
- Apache Airflow: Orquestração de workflows
- dbt: Transformação de dados
- Jupyter: Análise de dados interativa
- Apache Superset: Visualização e exploração de dados
- Docker: Containerização e desenvolvimento local
- Make: Automação de build e configuração
- Docker e Docker Compose
- Make
- Python 3.11.x
- Git
- Clone o repositório:
git clone git@github.com:GovHub-br/data-application-gov-hub.git
cd data-application-gov-hub- Execute a configuração usando Make:
make setup- Isso irá:
- Criar os ambientes virtuais necessários
- Instalar as dependências
- Configurar os hooks de pre-commit
- Preparar o ambiente de desenvolvimento
- Configuração de ambiente
Este projeto depende de variáveis de ambiente para o desenvolvimento local.
Você pode configurá-las seguindo este guia.
Inicie todos os serviços usando Docker Compose:
docker-compose up -dAcesse os diferentes componentes:
- Airflow: http://localhost:8080
- Jupyter: http://localhost:8888
- Superset: http://localhost:8088
Este projeto utiliza diversas ferramentas para manter a qualidade do código:
- Hooks de pre-commit
- Configurações de lint
- Testes automatizados
Execute a verificação de lint:
make lintExecute os testes:
make test.
├── airflow/
│ ├── dags/
│ └── plugins/
├── dbt/
│ └── models/
├── jupyter/
│ └── notebooks/
├── superset/
│ └── dashboards/
├── docker-compose.yml
├── Makefile
└── README.md
make setup: Configuração inicial do projetomake lint: Executa verificações de lintmake tests: Executa a suíte de testesmake clean: Remove arquivos geradosmake build: Constrói as imagens Docker
Este projeto exige commits assinados. Para configurar a assinatura com GPG:
- Gere uma chave GPG:
gpg --full-generate-key- Configure o Git para usar assinatura GPG:
git config --global user.signingkey SUA_KEY_ID
git config --global commit.gpgsign true- Adicione sua chave GPG à sua conta do GitLab
- Crie uma nova branch para sua feature
- Faça as alterações e garanta que todos os testes passam
- Envie um merge request

