Camada 9 — Workloads
Esta é a camada onde valor chega ao usuário final — pesquisador, aluno, comunidade. Tudo nas camadas 0-8 existe pra que esta funcione.
Categorias de workload
| Categoria | Apps |
|---|---|
| Apps acadêmicos | Tutor/Open edX (LMS), Invenio (repositório), OJS (revistas), Superset (analytics), Airflow (ETL) |
| Plataforma operacional | Authentik (IdP), OpenObserve (logs/metrics), Rancher (UI K8s), MongoDB |
| GPU serving | vLLM, SGLang, TGI (inference HTTP) |
| GPU batch | Volcano, Kueue (filas batch) — futuro |
| GPU sharing | HAMi, NVIDIA Device Plugin |
| Datalake | MinIO (S3), Iceberg, Trino, Spark — futuro |
Sub-páginas
- Tutor / Open edX — em produção, deployado via ArgoCD + Kustomize
- OpenObserve — observability backend
- GPU em K3s via LXC —
gpu-sp-01em produção - Como subir um novo app — guia passo a passo
- Arquitetura K8s — decisões consolidadas
Estado atual
- ✅ Tutor / Open edX (Franca)
- ✅ Invenio (Franca)
- ✅ OJS (Franca)
- ✅ Superset (Franca)
- ✅ Authentik (Franca)
- ✅ OpenObserve (setup parcial)
- ✅ gpu-sp-01 LXC (validado)
- 🚧 OnlyOffice (workstations Ryzen)
- ❌ vLLM/SGLang em produção
- ❌ Datalake (MinIO + Iceberg)
Princípio: workloads são meios, não fins
Lembrar: o “fim” institucional é apoiar pesquisa em humanidades digitais (contexto). Cada app aqui existe pra atender essa missão. Decisões de scaling, redundância, prioridade vão nessa direção.