-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathscript.js
More file actions
6754 lines (4945 loc) · 261 KB
/
script.js
File metadata and controls
6754 lines (4945 loc) · 261 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
// Configure marked.js to open links in new tab
if (typeof marked !== 'undefined') {
const renderer = new marked.Renderer();
const originalLinkRenderer = renderer.link.bind(renderer);
renderer.link = function(href, title, text) {
const html = originalLinkRenderer(href, title, text);
return html.replace(/^<a /, '<a target="_blank" rel="noopener noreferrer" ');
};
marked.setOptions({
renderer: renderer,
breaks: true,
gfm: true
});
}
// Blog posts data
const posts = [
{
id: 1,
title: "Pure Storage FlashArray//C: A Nova Era do All-Flash Acessível",
tag: "Pure Storage",
date: "2026-03-15",
excerpt: "Pure Storage lança linha FlashArray//C focada em preço competitivo sem comprometer performance. Entenda como isso muda o mercado de storage.",
content: `# Pure Storage FlashArray//C: A Nova Era do All-Flash Acessível
A Pure Storage posicionou o FlashArray//C como uma linha all-flash voltada para organizações que precisam de performance de flash sem o custo historicamente associado ao Tier 1 enterprise.
## O Que é o FlashArray//C?
O FlashArray//C é parte da família FlashArray da Pure Storage, focada em **capacidade** em vez de máxima performance — utilizando mídia flash de maior densidade (QLC) em vez das mídias de maior performance usadas na linha //X.
## Arquitetura
### DirectFlash Modules
A Pure Storage utiliza módulos de flash proprietários (DirectFlash) que acessam a mídia NAND diretamente, sem controladores intermediários SAS/SATA. Isso permite que o Purity Operating Environment (o SO do array) gerencie o flash diretamente.
### Eficiência de Dados Sempre Ativa
- Compressão e deduplicação inline — sempre ligadas, sem opção de desativar
- A Pure Storage publica garantias de eficiência de dados; consulte o site oficial para os termos atuais
- Thin provisioning nativo
### QoS por Workload
Políticas de QoS configuráveis por volume permitem controlar IOPS e bandwidth para evitar que workloads menos críticos impactem os prioritários.
## Para Quem é Indicado?
O FlashArray//C é posicionado para ambientes que:
- Estão migrando de storage híbrido (HDD + SSD) e querem all-flash a custo mais acessível
- Têm workloads de virtualização (VMware, Hyper-V) com padrões de I/O mistos
- Precisam de bancos de dados OLTP em flash, mas com foco em custo por TB
- Têm ambientes de VDI (Virtual Desktop Infrastructure)
## Recursos Oficiais
- [Pure Storage FlashArray//C](https://www.purestorage.com/products/nvme/flasharray-c.html)
- [Purity Operating Environment](https://www.purestorage.com/products/storage-software/purity.html)
- [Pure Storage Blog](https://blog.purestorage.com)
> Os dados técnicos e de performance do FlashArray//C variam por modelo e configuração. Consulte sempre o datasheet oficial e a equipe de vendas da Pure Storage para especificações atualizadas.`
},
{
id: 2,
title: "NetApp ONTAP: Storage Unificado On-Prem e Cloud",
tag: "NetApp",
date: "2026-03-13",
excerpt: "Conheça o ecossistema NetApp: o sistema operacional ONTAP, as linhas AFF e FAS, data services como SnapMirror e FlexClone, e a extensão para nuvem pública.",
content: `# NetApp ONTAP: Storage Unificado On-Prem e Cloud
A NetApp construiu sua reputação ao redor do **ONTAP**, um sistema operacional de storage que unifica protocolos, data services e acesso à nuvem em uma plataforma comum. Entender o ONTAP é entender o produto NetApp.
---
## O Sistema Operacional: ONTAP
O ONTAP é o núcleo de praticamente todo o portfólio de storage on-prem da NetApp:
- **Multiprotocolo unificado**: NFS, SMB, iSCSI, FC e **S3** no mesmo sistema
- **WAFL (Write Anywhere File Layout)**: sistema de arquivos próprio otimizado para snapshots e escritas aleatórias
- **Thin provisioning nativo**: alocação lógica sem consumir espaço físico imediatamente
- **QoS por volume**: limites de IOPS e throughput configuráveis por workload
---
## Linhas de Produto
| Linha | Tipo | Foco |
|---|---|---|
| **AFF A-Series** | All-flash NVMe | Alta performance, baixa latência |
| **AFF C-Series** | All-flash QLC | Capacidade, custo por TB |
| **FAS** | Híbrido (flash + HDD) | Ambientes com HDD legado |
| **Cloud Volumes ONTAP** | Software (cloud) | Extensão do ONTAP para nuvem pública |
| **StorageGRID** | Object storage | Archive, compliance, S3-compatible |
| **ONTAP Select** | Software-defined | ONTAP em commodity hardware |
### AFF A-Series
Plataforma all-flash voltada para workloads que exigem alta performance e baixa latência: bancos de dados Oracle, SAP HANA, VDI e workloads de virtualização densa.
### AFF C-Series
Baseada em SSDs QLC, posicionada para cenários onde capacidade por unidade de custo é mais importante que performance de ponta — backups on-flash, analytics de dados frios, arquivo ativo.
### FAS
Plataforma híbrida (flash + HDD) para ambientes que ainda têm grande volume de dados em disco rotativo ou que precisam de capacidade a custo mais baixo sem migrar para all-flash.
---
## Data Services
Os data services do ONTAP rodam em todas as variantes de hardware:
### SnapMirror
Replicação baseada em snapshots entre volumes, SVMs ou clusters:
- **SnapMirror Synchronous**: RPO próximo a zero para workloads críticos
- **SnapMirror Asynchronous**: replicação eficiente para DR de longa distância
- **SnapMirror Cloud**: replicação direta para S3 (AWS, Azure Blob, StorageGRID)
### SnapVault
Armazena snapshots secundários com retenção de longo prazo — separado do relacionamento de replicação primária. Usado para compliance e backup baseado em snapshots.
### FlexClone
Cria cópias de volumes ou arquivos **instantâneas e zero-copy** — o clone só consome espaço quando os dados divergem do original. Amplamente usado para ambientes de dev/test onde dezenas de cópias de banco de dados precisam ser criadas rapidamente.
### SnapLock
Implementa WORM (Write Once, Read Many) em nível de volume:
- **SnapLock Compliance**: imutabilidade que nem o administrador pode reverter antes do prazo
- **SnapLock Enterprise**: imutabilidade gerenciável pelo admin, com exceções controladas
### ONTAP S3
A partir do ONTAP 9.8, o ONTAP suporta **S3 nativo** — sem depender do StorageGRID. Permite criar buckets S3 diretamente em um cluster ONTAP existente:
- Acesso via API S3 padrão (compatível com ferramentas que consomem S3)
- Coexiste com NFS, SMB e SAN no mesmo cluster
- Útil para aplicações cloud-native que precisam de object storage on-prem sem infraestrutura separada
- Integração com **FabricPool**: o ONTAP pode usar um bucket S3 (local, StorageGRID ou nuvem pública) como tier frio para dados pouco acessados, liberando capacidade flash automaticamente
---
## O Polêmico Data ONTAP 7-Mode
Não dá para falar de NetApp sem mencionar o **Data ONTAP 7-Mode** — e a migração forçada que dividiu a comunidade de usuários por anos.
### O Que Era o 7-Mode?
O 7-Mode era o modelo de operação **single-controller** do Data ONTAP, versão anterior ao Clustered ONTAP (cDOT). Nele, cada controladora operava de forma independente, com seu próprio namespace de volumes e configuração própria. Era simples, direto e, para muitos administradores, intuitivo.
Durante anos, o 7-Mode foi o ONTAP que o mercado conhecia. Grandes ambientes foram construídos sobre ele. Documentação, scripts, integrações e o conhecimento acumulado de times inteiros giravam em torno do 7-Mode.
### A Virada: Clustered ONTAP
Com o crescimento da demanda por escalabilidade horizontal, a NetApp investiu pesado no **Clustered Data ONTAP (cDOT)** — uma arquitetura completamente diferente, onde múltiplas controladoras formam um cluster com namespace unificado, **SVMs (Storage Virtual Machines)** para multitenancy e mobilidade de dados sem downtime entre nodes.
O cDOT era tecnicamente superior em quase tudo: escalabilidade, non-disruptive operations, multitenancy, cloud integration. Mas tinha um custo alto para quem já estava no 7-Mode.
### Por Que Foi Polêmico?
A migração do 7-Mode para o cDOT não era uma atualização de firmware. Era uma **mudança de paradigma**:
- A arquitetura de volumes, qtrees, interfaces de rede e políticas de export foi reformulada
- Scripts de automação existentes precisavam ser reescritos
- A curva de aprendizado era real — times acostumados com 7-Mode levavam tempo para operar o cDOT com a mesma fluência
- O processo de migração (via **7-Mode Transition Tool**) funcionava para casos padrão, mas ambientes complexos precisavam de planejamento extenso e, frequentemente, janelas de manutenção
A situação foi agravada pelo timing: a NetApp anunciou o fim do suporte ao 7-Mode com prazos que muitos clientes consideraram curtos para a escala de migração necessária. Ambientes com centenas de volumes, integrações customizadas e equipes com anos de expertise em 7-Mode tinham muito a reaprender e refazer.
### O Legado
O 7-Mode foi descontinuado e está fora de suporte há anos. O Clustered ONTAP — hoje simplesmente chamado de **ONTAP** — é a plataforma vigente em toda a linha NetApp.
Mas a memória do episódio ficou. Para muitos profissionais de infraestrutura, a migração forçada do 7-Mode é citada até hoje como exemplo de como uma mudança tecnicamente correta pode gerar atrito significativo quando não é acompanhada de suporte adequado à transição.
O mercado aprendeu — e a NetApp também. As versões posteriores do ONTAP priorizaram upgrades não-disruptivos e compatibilidade como princípios de design, em parte como resposta direta à experiência do 7-Mode.
---
## Cloud e Hybrid
### Cloud Volumes ONTAP
O ONTAP rodando como software em nuvem pública (AWS, Azure, Google Cloud). Permite usar os mesmos data services, comandos e integrações do ONTAP on-prem:
- Extensão de DR para cloud sem reescrever workflows
- Dev/test em cloud consumindo dados replicados via SnapMirror
- Burst de capacidade mantendo o mesmo sistema operacional
### Cloud Volumes Service / Azure NetApp Files
Serviços gerenciados de NFS/SMB de alta performance nas nuvens públicas, sem gerenciar instâncias de ONTAP.
---
## Gerenciamento
- **ONTAP System Manager**: interface web moderna integrada ao cluster
- **NetApp Harvest + Grafana**: observabilidade e dashboards de performance
- **Trident**: CSI driver para Kubernetes — provisiona PVCs diretamente em ONTAP
- **SnapCenter**: orquestração de snapshots e backups application-aware (Oracle, SQL Server, SAP HANA)
---
## Casos de Uso Típicos
- **NAS multi-protocolo**: ambientes que precisam de NFS e SMB no mesmo sistema, com cotas e auditing
- **Object storage on-prem**: ONTAP S3 para aplicações que consomem S3 sem infraestrutura separada
- **Cloud tiering automático**: FabricPool move dados frios para S3 (StorageGRID, nuvem pública) transparentemente
- **DR e backup baseados em snapshots**: SnapMirror + SnapVault como backbone de proteção
- **Hybrid cloud**: extensão transparente on-prem → cloud via SnapMirror Cloud ou Cloud Volumes ONTAP
- **Kubernetes**: Trident como CSI driver com suporte a snapshots e clones de PVCs
---
## Recursos Oficiais
- [NetApp.com](https://www.netapp.com)
- [Documentação ONTAP](https://docs.netapp.com/us-en/ontap/)
- [NetApp Community](https://community.netapp.com)
- [Trident (CSI)](https://github.com/NetApp/trident)
> Para especificações técnicas atualizadas, modelos disponíveis e licenciamento, consulte o site oficial ou um representante NetApp.`
},
{
id: 12,
title: "Dell EMC Storage: PowerStore, PowerMax e PowerScale",
tag: "Dell Technologies",
date: "2026-03-20",
excerpt: "Conheça o portfólio de storage enterprise da Dell Technologies: PowerStore para workloads modernos, PowerMax para missão crítica e PowerScale para scale-out NAS.",
content: `# Dell EMC Storage: PowerStore, PowerMax e PowerScale
A Dell Technologies tem um dos portfólios de storage mais abrangentes do mercado, resultado da fusão entre Dell e EMC em 2016. O portfólio cobre desde entrada até missão crítica, com plataformas distintas para cada tipo de workload.
---
## Visão Geral do Portfólio
| Linha | Tipo | Foco Principal |
|---|---|---|
| **PowerStore** | All-flash / híbrido | Plataforma moderna, consolidada |
| **PowerMax** | All-flash | Missão crítica, mainframe |
| **PowerScale (ex-Isilon)** | Scale-out NAS | Dados não-estruturados em larga escala |
| **Unity XT** | Unified (híbrido) | Ambientes de médio porte |
| **ECS (Elastic Cloud Storage)** | Object storage | Archive, backup, cloud privada |
---
## PowerStore
O PowerStore é a plataforma all-flash mais recente da Dell, projetada para consolidar workloads de bloco e arquivo em um único sistema com arquitetura baseada em NVMe.
### Arquitetura
- **NVMe-ready**: SSDs NVMe internos com suporte a NVMe-oF para conectividade de host
- **AppsON**: capacidade de rodar VMs diretamente no array (baseado em VMware ESXi embarcado)
- Expansão de capacidade não-disruptiva
- Unified: suporta bloco (FC, iSCSI, NVMe-oF) e arquivo (NFS, SMB) no mesmo sistema
### Data Services
- **Snapshots**: baseados em ROW, com retenção configurável
- **Replication**: replicação assíncrona nativa entre arrays PowerStore
- **CloudIQ**: plataforma de observabilidade e previsão de capacidade via cloud
### Casos de Uso Típicos
- Virtualização (VMware, Hyper-V) com workloads mistos de bloco e arquivo
- Bancos de dados tier-1 e tier-2
- VDI (Virtual Desktop Infrastructure)
- Consolidação de arrays legados (Unity XT, VNX)
---
## PowerMax
O PowerMax é a plataforma de missão crítica da Dell, herdeira direta da linha Symmetrix — uma das arquiteturas de storage mais longevas do mercado.
### Arquitetura
- **All-NVMe**: SSDs NVMe em todas as configurações
- **Dual Active-Active Controllers**: sem single point of failure
- **Mainframe-ready**: suporte nativo a z/OS (IBM mainframe)
- Non-Disruptive Operations (NDO): upgrades de firmware e hardware sem interrupção
### SRDF — Symmetrix Remote Data Facility
O SRDF é a tecnologia de replicação da linha Symmetrix, disponível no PowerMax:
- **SRDF/S (Synchronous)**: RPO próximo a zero, para sites com baixa latência de rede
- **SRDF/A (Asynchronous)**: replicação de longa distância com impacto mínimo na performance
- **SRDF/Metro**: active-active entre dois sites, com failover transparente
### Casos de Uso Típicos
- Core banking e sistemas financeiros regulados
- SAP HANA e Oracle RAC em ambientes de máxima criticidade
- Ambientes mainframe (z/OS)
- Aplicações que exigem Non-Disruptive Operations garantidas
---
## PowerScale (ex-Isilon)
O PowerScale é a plataforma scale-out NAS da Dell, originalmente desenvolvida pela Isilon. É utilizada em ambientes que acumulam grandes volumes de dados não-estruturados.
### Arquitetura Scale-Out
- Clusters de nodes adicionados online, sem interrupção
- Sistema de arquivos distribuído: **OneFS** — um único namespace independente do número de nodes
- Shared-nothing: cada node contribui com CPU, memória, rede e armazenamento
### OneFS
- **Multiprotocolo**: NFS, SMB, HDFS e S3 no mesmo namespace
- **Inline data reduction**: compressão e dedupe configuráveis por workload
- **SmartTiering**: tiering automático entre nodes de performance e nodes de capacidade
- **SmartQuotas**: cotas por usuário, grupo ou diretório com soft e hard limits
- **CloudPools**: tiering transparente para cloud (AWS S3, Azure Blob)
### Casos de Uso Típicos
- Media & Entertainment: edição colaborativa de vídeo, render farms
- Life Sciences: dados genômicos, imagens de pesquisa
- Analytics e big data: HDFS para Hadoop/Spark
- Backup target de alta capacidade
- Vigilância por vídeo em larga escala
---
## ECS — Elastic Cloud Storage
Plataforma de object storage S3-compatible da Dell para ambientes que precisam de object storage on-premises em larga escala:
- Compatível com API S3, Swift e Atmos
- Proteção via Erasure Coding
- Suporte a geo-distribution e replicação multi-site
- Casos de uso: backup target, arquivo de longo prazo, cloud storage privada
---
## Gerenciamento
- **Dell CloudIQ**: observabilidade de performance, capacidade e saúde dos arrays via SaaS
- **PowerStore Manager**: interface web do PowerStore
- **Unisphere for PowerMax**: interface de gerenciamento do PowerMax
- **InsightIQ**: analytics de performance para PowerScale
---
## Recursos Oficiais
- [Dell Storage](https://www.dell.com/en-us/dt/storage/index.htm)
- [Documentação PowerStore](https://www.dell.com/support/home/en-us/product-support/product/powerstore-1000t/docs)
- [Documentação PowerMax](https://www.dell.com/support/home/en-us/product-support/product/powermax-2000/docs)
- [Documentação PowerScale / OneFS](https://www.dell.com/support/home/en-us/product-support/product/isilon-onefs/docs)
- [Dell Community](https://www.dell.com/community/)
> Para especificações técnicas atualizadas, modelos disponíveis e licenciamento, consulte o site oficial ou um representante Dell Technologies.`
},
{
id: 13,
title: "HPE Storage: Alletra, 3PAR, Nimble e a Evolução do Portfólio",
tag: "HPE",
date: "2026-03-19",
excerpt: "Conheça o portfólio de storage enterprise da HPE: da linha legada 3PAR à plataforma moderna Alletra, passando pelo Nimble Storage e o AIOps do InfoSight.",
content: `# HPE Storage: Alletra, 3PAR, Nimble e a Evolução do Portfólio
A Hewlett Packard Enterprise (HPE) tem um dos portfólios de storage com história mais rica do mercado enterprise — resultado de décadas de desenvolvimento próprio e aquisições estratégicas, notadamente a da **Nimble Storage** em 2017 e a consolidação das linhas anteriores na plataforma **Alletra**.
---
## Contexto: Como o Portfólio Evoluiu
| Era | Plataforma Principal | Observação |
|---|---|---|
| Anos 2000–2010 | HPE MSA, EVA | Entry e mid-range tradicionais |
| 2010–2017 | HPE 3PAR StoreServ | All-flash e híbrido high-end |
| 2017 | Aquisição da Nimble Storage | Trouxe InfoSight e arquitetura adaptativa |
| 2019–2021 | HPE Primera | Sucessor do 3PAR para tier crítico |
| 2021–hoje | HPE Alletra | Plataforma unificada, successora de Primera e Nimble |
---
## HPE Alletra — A Plataforma Atual
O Alletra é a geração atual do portfólio all-flash da HPE, dividida em linhas com focos distintos.
### HPE Alletra 9000
Voltado para workloads de **missão crítica** — herdeiro direto do HPE Primera:
- Arquitetura all-NVMe com dual active-active controllers
- Projetado para alta disponibilidade com Non-Disruptive Operations (upgrades sem interrupção)
- Suporte a FC, iSCSI e NVMe-oF
- Integração com HPE InfoSight para analytics preditivo
- Casos de uso: SAP HANA, Oracle RAC, core banking, VDI crítico
### HPE Alletra 6000
Voltado para ambientes **enterprise de médio porte** — herdeiro do HPE Nimble Storage:
- Arquitetura all-flash com foco em custo-benefício
- CASL (Cache Accelerated Sequential Layout): sistema de arquivos da Nimble otimizado para flash
- Deduplicação e compressão inline
- InfoSight integrado nativamente
- Casos de uso: virtualização geral (VMware, Hyper-V), bancos de dados tier-2, VDI
### HPE Alletra MP
Plataforma **cloud-native** mais recente da HPE:
- Projetada para gestão via HPE GreenLake (modelo de consumo as-a-service)
- API-first: gestão programática desde o design
- Suporte a NVMe-oF nativo
- Foco em ambientes que operam com DevOps e automação
---
## HPE Primera (Legado Recente)
Predecessor direto do Alletra 9000, ainda amplamente encontrado em produção:
- All-flash com foco em tier-0 e tier-1
- Garantia de disponibilidade declarada no contrato (consulte termos com a HPE)
- Integração com VMware vVols
- SREP (Single Controller Resilient Ported) — arquitetura que mantém operação mesmo com falha de controller
---
## HPE Nimble Storage (Legado)
Adquirida pela HPE em 2017, a Nimble trouxe duas contribuições duradouras ao portfólio:
1. **A arquitetura CASL** — adotada no Alletra 6000
2. **O HPE InfoSight** — plataforma de AIOps que se tornou padrão em toda a linha HPE
### Modelos Nimble
- **AF-Series**: All-flash (predecessor do Alletra 6000)
- **HF-Series**: Híbrido (flash + HDD)
- **CS-Series**: Secondary flash para backup e analytics
---
## HPE 3PAR StoreServ (Legado)
Plataforma histórica da HPE para ambientes críticos, predecessor do Primera:
- Arquitetura ASIC proprietária (ASIC Gen 6) para processamento de I/O
- Suporte a thin provisioning, deduplicação e compressão
- Federation: migração de dados entre arrays 3PAR de forma transparente
- Ainda em uso em muitos ambientes enterprise — suporte HPE segue ativo para versões recentes
> O 3PAR foi formalmente descontinuado como linha de venda ativa. Ambientes com 3PAR devem planejar migração para Alletra 9000.
---
## HPE MSA — Entry-Level SAN
A linha **MSA (Modular Smart Array)** é a solução de entrada da HPE para ambientes que precisam de SAN com custo baixo:
- Suporte a SAS, SSD e HDD no mesmo chassis
- Conectividade FC e iSCSI
- Sem thin provisioning nativo nas versões mais antigas (disponível nas versões MSA 2060+)
- Gerenciamento via interface web simples
- Casos de uso: pequenas empresas, filiais, ambientes de desenvolvimento
---
## HPE StoreOnce — Backup e Deduplicação
Plataforma dedicada a **backup e recovery** com deduplicação:
- Deduplicação inline de alta eficiência para dados de backup
- **Catalyst**: protocolo proprietário da HPE para backup inteligente — o job de deduplicação ocorre no servidor antes de transmitir ao StoreOnce, reduzindo tráfego de rede
- Compatível com principais ferramentas de backup: Veeam, Commvault, Veritas, HPE Data Protector
- Suporte a replicação entre appliances StoreOnce para DR de backup
- Modelos: appliance físico e VSA (Virtual Storage Appliance)
---
## HPE InfoSight — AIOps para Storage
O **InfoSight** é a plataforma de inteligência operacional da HPE, originalmente desenvolvida pela Nimble Storage e expandida para toda a linha Alletra e Primera:
- Coleta telemetria contínua dos arrays (I/O, latência, capacidade, saúde de componentes)
- Motor de ML identifica padrões e **prevê falhas** antes que impactem o ambiente
- Diagnóstico cruzado: correlaciona dados de storage com infraestrutura de host, rede e VMware
- **Wellness Recommendations**: sugestões automáticas de otimização de configuração
- Cross-stack analytics: quando conectado ao HPE Nimble dHCI, correlaciona dados de compute e storage
---
## Gerenciamento
- **HPE Primera / Alletra OS**: interface web integrada ao array
- **HPE GreenLake**: plataforma de gestão cloud com modelo de consumo as-a-service (pay-per-use)
- **HPE Storage API**: REST API para automação e integração com orquestradores
- **HPE InfoSight**: portal centralizado de analytics (cloud-based)
- **HPE SSMC (StoreServ Management Console)**: console legada para 3PAR (ainda suportada)
---
## Recursos Oficiais
- [HPE Storage](https://www.hpe.com/us/en/storage.html)
- [HPE Alletra](https://www.hpe.com/us/en/storage/alletra.html)
- [HPE InfoSight](https://www.hpe.com/us/en/storage/infosight.html)
- [HPE GreenLake](https://www.hpe.com/us/en/greenlake.html)
- [HPE Education Services](https://education.hpe.com/)
- [HPE Community](https://community.hpe.com/)
> Para especificações técnicas atualizadas, modelos disponíveis e licenciamento, consulte o site oficial ou um representante HPE.`
},
{
id: 3,
title: "NVMe-oF: O Futuro do Storage em Rede",
tag: "Protocolos",
date: "2026-03-05",
excerpt: "NVMe over Fabrics está revolucionando a performance de storage. Entenda a tecnologia e quais fabricantes já suportam.",
content: `# NVMe-oF: O Futuro do Storage em Rede
NVMe over Fabrics (NVMe-oF) está mudando radicalmente a forma como pensamos sobre storage em rede, trazendo latências de flash diretamente ao storage compartilhado.
## O Que é NVMe-oF?
NVMe-oF permite que múltiplos hosts acessem dispositivos NVMe através de uma rede, mantendo a baixa latência característica do NVMe local.
### Protocolos Suportados
- **NVMe/TCP**: Sobre redes Ethernet padrão
- **NVMe/FC**: Sobre Fibre Channel existente
- **NVMe/RoCE**: RDMA over Converged Ethernet (máxima performance)
## Vantagens Transformadoras
### Performance
- Latência significativamente menor que SCSI/SAS tradicional
- Elimina gargalos do protocolo SCSI legado
- Explora o paralelismo nativo do NVMe (filas profundas)
### Eficiência
- Menor uso de CPU nos hosts (offload para a NIC/HBA)
- Melhor utilização da banda de rede disponível
### Escalabilidade
- Suporta muito mais conexões simultâneas
- Queue depth maior (64K vs 256 do SCSI)
## Quem Suporta NVMe-oF?
### Pure Storage
- **FlashArray//X**: NVMe end-to-end
- Suporte a NVMe/FC e NVMe/RoCE
### NetApp
- **AFF A-Series**: NVMe-oF via ONTAP
- Foco em NVMe/FC inicialmente
- Roadmap sólido para NVMe/TCP
### Dell EMC
- **PowerStore**: Arquitetura NVMe-ready
- **PowerMax**: NVMe interno + NVMe-oF
- Suporte crescente ao portfolio
### IBM
- **FlashSystem**: NVMe/FC disponível
- Forte em ambientes mainframe
### Hitachi Vantara
- **VSP 5000**: NVMe-oF na linha high-end
- Foco em workloads críticos
### HPE
- **Alletra**: NVMe-oF nativo
- Parte da estratégia cloud-native
## Considerações de Implementação
### Infraestrutura Necessária
- Switches compatíveis (para RoCE)
- NICs adequadas nos hosts
- Planejamento de VLAN/subnets
### Casos de Uso Ideais
- Bancos de dados de alta transação
- Analytics em tempo real
- Aplicações financeiras
- AI/ML workloads
### Migração
Boa notícia: **NVMe-oF é não-disruptivo**. Pode coexistir com FC/iSCSI durante a transição.
## Adoção Atual
NVMe-oF deixou de ser tecnologia emergente — os principais fabricantes já têm suporte em produção e a adoção cresce especialmente em ambientes que buscam reduzir a latência de storage em rede. NVMe/TCP, por não exigir infraestrutura especial, tende a ser o ponto de entrada mais acessível.
## Recursos Para Aprender Mais
- [NVMe.org](https://nvmexpress.org/)
- [SNIA NVMe-oF Resources](https://www.snia.org/nvme)
- [Pure Storage NVMe Guide](https://www.purestorage.com/knowledge/what-is-nvme.html)
**NVMe-oF é a maior evolução em storage networking desde o surgimento do Fibre Channel.** Se você ainda usa SCSI tradicional, está deixando performance (e dinheiro) na mesa.`
},
{
id: 4,
title: "Hitachi Vantara: Portfólio VSP, HNAS, Ops Center e VSP One",
tag: "Hitachi Vantara",
date: "2026-03-14",
excerpt: "Visão completa do portfólio de storage enterprise da Hitachi Vantara: todas as linhas VSP (G, F, E, 5000), HNAS, o conjunto de gerenciamento Ops Center e a nova plataforma unificada VSP One.",
content: `# Hitachi Vantara: Portfólio VSP, HNAS, Ops Center e VSP One
A Hitachi Vantara construiu ao longo das décadas um dos portfólios de storage enterprise mais abrangentes do mercado. Entender as linhas de produto, quando cada uma se aplica e como o ecossistema de software se conecta é fundamental para quem trabalha ou avalia soluções Hitachi.
---
## A Família VSP
O **VSP (Virtual Storage Platform)** é a linha principal de arrays de armazenamento enterprise da Hitachi. Ao longo das gerações, o portfólio evoluiu de produtos separados para uma plataforma progressivamente unificada sob o sistema operacional **SVOS (Storage Virtualization Operating System)**.
---
### VSP G Series e VSP F Series
As séries G e F representam uma geração anterior — ainda amplamente implantada em ambientes enterprise — baseada em arquitetura dual-controller com suporte a SAS HDD, SAS SSD e, nos modelos mais recentes, NVMe.
- **VSP G Series**: arrays de uso geral com suporte a mídia híbrida (HDD + SSD). Modelos cobrem de entry (G130) até high-end (G900), adequados para virtualização, bancos de dados e workloads mistos.
- **VSP F Series**: variantes all-flash da linha G. Os modelos F350, F370, F700 e F900 são os equivalentes all-flash dos respectivos modelos G, otimizados para workloads que exigem maior densidade de IOPS e menor latência.
**Tecnologias presentes em G/F:**
- Dynamic Tiering e Active Flash (tiering automático entre SSDs e HDDs na série G)
- ShadowImage (snapshots locais), TrueCopy (replicação síncrona), Universal Replicator (replicação assíncrona)
- Storage Virtualization — virtualização de arrays externos
- SVOS como sistema operacional base
As séries G e F são consideradas a geração anterior ao VSP 5000 e estão sendo gradualmente substituídas pelo VSP One Block em novos projetos. Muitos ambientes ainda as operam em produção e recebem suporte ativo da Hitachi.
---
### VSP E Series
A série E foi posicionada como plataforma de **storage unificado** (block + NAS) para o segmento de médio porte, com foco em simplificação operacional e menor footprint físico em relação à linha 5000.
**Modelos:** E390, E590, E790, E990 — cobrindo de entry até workloads enterprise de médio porte.
**Características técnicas:**
- Arquitetura all-flash NVMe nos modelos mais recentes
- Capacidade de NAS nativa (file services integrados, sem hardware adicional)
- Protocolos block: FC, iSCSI, NVMe-oF
- Protocolos file: NFS, SMB
- SVOS unificado com as demais linhas VSP
- Data services: ShadowImage, TrueCopy, Universal Replicator, GAD (modelos superiores)
- Storage Virtualization para migração e consolidação
A série E é indicada para organizações que precisam de block e NAS em um único array, com gerenciamento centralizado pelo Ops Center.
---
### VSP 5000 Series
O VSP 5000 é a linha **mission critical** da Hitachi — projetada para os workloads mais exigentes em disponibilidade e performance previsível.
**Modelos:** VSP 5100 (entry da linha), VSP 5500 (mid-range) e VSP 5600 (high-end).
**Arquitetura:**
- Dual active-active controllers com zero single point of failure
- Cache persistente protegido contra falhas de energia
- NVMe end-to-end nos modelos mais recentes
- Suporte a HAF (Hitachi Accelerated Flash) — módulos de flash proprietários de alta densidade
- Expansão online sem impacto de performance
**Data services:**
- **ShadowImage**: snapshots locais de alta performance com consistência de aplicação
- **TrueCopy**: replicação síncrona para RPO próximo a zero
- **Universal Replicator**: replicação assíncrona de longa distância, multi-hop
- **GAD (Global Active Device)**: active-active entre sites — ambos os sites respondem a I/O simultaneamente, failover transparente para hosts
- **HyperSwap**: mobilidade de dados entre VSPs sem downtime
**Storage Virtualization:**
O VSP 5000 pode virtualizar arrays de outros fabricantes (Dell EMC, NetApp, Pure Storage, IBM) e expô-los como volumes locais, permitindo migração não-disruptiva e extensão de data services Hitachi para arrays externos.
**Diferenciais para missão crítica:**
- Suporte certificado a ambientes mainframe IBM z/OS
- Amplamente adotado em core banking, bolsas de valores, telecomunicações e saúde
- Non-disruptive upgrade de firmware e hardware com array em produção
- Criptografia at-rest AES-256 com FIPS 140-2, gerenciamento de chaves via KMIP
Para especificações de capacidade máxima, IOPS e número de drives por modelo, consulte o datasheet oficial da Hitachi Vantara.
---
### HNAS — Hitachi NAS Platform
O **HNAS (Hitachi NAS Platform)** é a plataforma de **scale-out NAS enterprise** da Hitachi — projetada para ambientes que demandam alto throughput de file services, multiprotocolo e grande capacidade.
**Arquitetura:**
- Nodes de NAS independentes que escalam horizontalmente — capacidade e performance adicionadas online
- Backend conectado a arrays VSP (ou storage de terceiros) para armazenamento dos dados
- Sistema de arquivos distribuído com namespace global
- Alta disponibilidade com failover automático entre nodes
**Protocolos:**
- NFS v3, v4, v4.1
- SMB 2.x e 3.x (com suporte a DFS)
- FTP, HTTP/S
- Object (S3-compatible em versões mais recentes)
**Casos de uso típicos:**
- Home directories corporativos com milhares de usuários simultâneos
- Media & Entertainment: edição de vídeo colaborativa, proxies e masters de alta resolução
- Backup target: integração com Veeam, Commvault e NetBackup
- Analytics e data lakes com acesso via NFS
- Arquivo de longo prazo com tiering para HCP (Hitachi Content Platform)
**Integração com VSP:**
O HNAS se conecta ao backend do VSP para o armazenamento físico, aproveitando as capacidades de snapshot e replicação do array. Snapshots de NAS podem ser orquestrados via Ops Center Protector.
O HNAS é o precursor direto do **VSP One File** — a versão integrada e modernizada da plataforma NAS dentro do ecossistema VSP One.
---
## Hitachi Ops Center
O **Hitachi Ops Center** é o conjunto de software de gerenciamento que cobre toda a linha VSP — do VSP G/F até o VSP One. É modular: cada componente endereça uma função específica e pode ser implantado de forma independente conforme a necessidade.
---
### Ops Center Administrator
Interface principal de **provisionamento e administração** dos arrays VSP — substitui o antigo Hitachi Device Manager (HDvM) e o Hitachi Command Suite.
**Funções centrais:**
- Provisionamento de volumes (LUNs/LDEVs), RAID groups e pools
- Gerenciamento de host groups e mapeamento de volumes para hosts (FC, iSCSI, NVMe-oF)
- Gerenciamento multi-array: múltiplos VSPs em uma única console
- Configuração de QoS por volume (limites de IOPS e bandwidth)
- RBAC com segregação de funções: storage admin, backup admin, read-only
- Monitoramento de saúde de hardware e alertas
- Gerenciamento de NAS (shares NFS/SMB, quotas, exports) na mesma interface do block para VSP E e VSP One
- Suporte a migração não-disruptiva via Storage Virtualization
---
### Ops Center Protector
Módulo de **orquestração de proteção de dados** — gerencia copy services, replicação e workflows de DR para toda a linha VSP.
**Copy services suportados:**
| Tecnologia | Tipo | Uso |
|---|---|---|
| **ShadowImage** | Snapshot local | Recovery rápido, clone para dev/test |
| **TrueCopy** | Replicação síncrona | RPO próximo a zero, sites próximos |
| **Universal Replicator** | Replicação assíncrona | DR de longa distância, multi-hop |
| **GAD / HyperMetro** | Active-active entre sites | Zero RPO/RTO, failover transparente |
**Capacidades:**
- Políticas de proteção por SLA: frequência de snapshot, retenção, destino de replicação
- Application-aware: integração com Oracle, SAP HANA, SQL Server e VMware vSphere para snapshots consistentes
- **Copy Data Management (CDM)**: catálogo centralizado de todas as cópias — snapshots, clones, réplicas — evita proliferação descontrolada que desperdiça capacidade
- Runbooks de DR: failover e failback automatizados com validação de consistência
- Integração com Veeam e Commvault para backup de longo prazo
---
### Ops Center Analyzer e Analyzer Detail View
Módulo de **analytics de performance e planejamento de capacidade**.
**Ops Center Analyzer:**
- Dashboards consolidados de performance e saúde de múltiplos arrays
- Métricas de IOPS, throughput, latência e utilização de cache
- Forecasting de capacidade com base em tendência histórica
- Alertas proativos antes de thresholds críticos serem atingidos
**Ops Center Analyzer Detail View:**
- Drill-down granular por LDEV, port, host group ou pool
- Resolução histórica fina — útil para root cause analysis de incidentes de performance
- Correlação de eventos: métricas de storage cruzadas com eventos de host e rede
- Exportação de relatórios para auditorias e revisões de capacidade
- Identificação de volumes com padrão de I/O inadequado para o tier onde estão
---
### Ops Center API Configuration Manager
Módulo de **automação via REST API** — o ponto de entrada para Infrastructure as Code e integração com pipelines de DevOps no ambiente VSP.
**Características:**
- Todos os recursos de provisionamento e configuração expostos como endpoints REST
- Documentação REST API disponível no Hitachi Knowledge Center (guia HTML + PDF por versão)
- Autenticação por token com controle de sessão e RBAC
- Operações cobertas: criar/deletar volumes, mapear LUNs, configurar host groups, gerenciar replicação
**Integrações comuns:**
- **Ansible**: módulos Hitachi para automação de storage em playbooks
- **Terraform**: provider para provisionamento declarativo
- **Python / Scripts**: REST direto para integração customizada
- **ServiceNow**: workflows de self-service de storage via ITSM
**Exemplo de fluxo automatizado:**
\`\`\`
VM provisionada pelo vSphere
→ pipeline dispara chamada à API Configuration Manager
→ LUN criada e mapeada automaticamente para o host
→ Ops Center Protector aplica política de snapshot por SLA
→ storage pronto sem intervenção manual
\`\`\`
---
## VSP One — A Plataforma Unificada
O **VSP One** é a nova geração da plataforma Hitachi — consolidando as linhas VSP G/F, VSP 5000, E Series e HNAS em uma única arquitetura com SVOS como sistema operacional comum.
### Variantes
| Variante | Sucessor de | Foco |
|---|---|---|
| **VSP One Block** | VSP 5000, 7000, G/F Series | SAN / block storage |
| **VSP One File** | HNAS | NAS / file storage |
| **VSP One SDS** | — | Software-defined em commodity hardware |
### VSP One Block
Plataforma de block storage enterprise com NVMe end-to-end, active-active controllers e storage virtualization. Cobre desde entry até mission critical, com os mesmos data services da linha 5000 (ShadowImage, TrueCopy, Universal Replicator, HyperMetro/GAD).
Um diferencial relevante: o VSP One Block mantém a capacidade de **virtualizar arrays de terceiros**, permitindo consolidação e migração não-disruptiva de infraestrutura legada.
### VSP One File
Evolução direta do HNAS — NAS scale-out integrado à mesma plataforma e gerenciado pelo mesmo Ops Center. Suporte a NFS, SMB e Object S3. Cloud tiering automático para AWS, Azure e Google Cloud.
### VSP One SDS
Variante software-defined que roda em commodity hardware x86, levando as capacidades do SVOS para ambientes onde investimento em hardware proprietário não é viável.
### Gerenciamento Unificado
Toda a linha VSP One é gerenciada pelo **Hitachi Ops Center** — uma única console para block, file e object, com automação via API Configuration Manager e proteção orquestrada pelo Protector.
---
## Recursos
- [Hitachi Vantara — Portfólio VSP](https://www.hitachivantara.com/en-us/products/storage-platforms.html)
- [Hitachi Ops Center](https://www.hitachivantara.com/en-us/products/storage-operations-software/ops-center.html)
- [Hitachi Knowledge Center](https://knowledge.hitachivantara.com/)
- [Comunidade Hitachi Vantara](https://community.hitachivantara.com/)
> Para especificações técnicas detalhadas, modelos disponíveis e configurações de capacidade de qualquer linha VSP, consulte sempre o datasheet oficial e o time Hitachi Vantara.`
},
{
id: 6,
title: "Snapshots: Como Funciona a Tecnologia por Trás da Proteção de Dados",
tag: "Data Protection",
date: "2026-03-22",
excerpt: "O que é um snapshot, como ele nasceu, por que ocupa zero espaço no início e como as diferentes técnicas (COW, ROW, CDP) funcionam por dentro. Um guia do zero para entender de verdade.",
content: `# Snapshots: Como Funciona a Tecnologia por Trás da Proteção de Dados
Se você trabalha com infraestrutura, já ouviu falar de snapshot. É uma das palavras mais usadas em storage — e também uma das mais mal explicadas. Esse post vai direto ao ponto: o que é, como surgiu, como funciona por dentro, e por que importa.
---
## O Problema que o Snapshot Resolve
Antes de entender o que é um snapshot, vale entender o problema que ele nasceu para resolver.
Imagine um banco de dados de produção com centenas de gigabytes. Você precisa:
- Criar uma cópia para que o time de desenvolvimento possa testar uma migração
- Ter a capacidade de voltar para o estado de "antes da besteira" se alguém apagar dados sem querer
- Fazer backup sem parar a aplicação
As abordagens tradicionais tinham um custo alto: copiar 500 GB de dados levava horas, consumia o dobro do espaço em disco e impactava a performance do servidor durante a cópia.
O snapshot nasceu nos anos 1990 como resposta a esse problema. A ideia central era simples e elegante: **e se em vez de copiar os dados, a gente apenas fotografasse onde eles estão?**
---
## O Que é um Snapshot
Um snapshot é um **registro do estado de um volume em um momento específico no tempo** — uma fotografia de onde cada bloco de dados estava naquele instante.
O ponto fundamental que diferencia o snapshot de uma cópia comum: **ele não duplica os dados no momento da criação**. Ele apenas guarda um mapa de referência. Por isso, criar um snapshot de 1 TB de dados é uma operação que leva segundos e ocupa quase zero espaço inicial.
Para entender como isso é possível, é preciso entender como o storage organiza dados em blocos.
---
## Blocos: A Base de Tudo
Um volume de storage não armazena arquivos como você vê no Windows Explorer. Por baixo, tudo é dividido em **blocos** — pequenas unidades de dados (geralmente 4 KB, 8 KB ou 16 KB dependendo do sistema).
Um arquivo de 100 MB pode estar espalhado em milhares de blocos pelo disco. O sistema de arquivos mantém uma **tabela de metadados** que sabe qual bloco está em qual posição física — é como um índice de um livro.
Quando você cria um snapshot, o que acontece é: o sistema copia esse **índice**, não os dados. O snapshot aponta para os mesmos blocos físicos que o volume original. Por isso ocupa quase zero espaço — ele é apenas uma lista de referências.
<div style="margin: 2rem 0; text-align: center;">
<img src="snapshot-diagram.svg" alt="Diagrama mostrando as três fases de um snapshot: antes da criação, após a criação compartilhando os mesmos blocos, e após modificação com Copy-on-Write preservando o bloco antigo" style="max-width: 100%; border-radius: 10px;">
</div>
\`\`\`
Antes do snapshot:
Volume original → [Bloco A] [Bloco B] [Bloco C] [Bloco D]
Após criar o snapshot:
Volume original → [Bloco A] [Bloco B] [Bloco C] [Bloco D]
Snapshot → [Bloco A] [Bloco B] [Bloco C] [Bloco D]
(ambos apontam para os mesmos blocos físicos)
\`\`\`
O desafio vem depois: o que acontece quando o volume original é modificado? Os dois precisam divergir — o snapshot precisa continuar apontando para os dados antigos, enquanto o volume original evolui. É aqui que as diferentes técnicas entram em cena.
---
## Técnica 1: Copy-on-Write (COW)
O **Copy-on-Write** é a abordagem mais clássica e ainda amplamente usada.
A regra é simples: **antes de modificar um bloco que está protegido por um snapshot, copie o valor antigo para uma área reservada.**
### Como funciona passo a passo
1. Snapshot criado — apenas o mapa de referência é copiado, zero dados movidos
2. Uma aplicação modifica o Bloco B do volume original
3. **Antes** de escrever o novo valor, o sistema copia o valor antigo do Bloco B para a área de snapshot
4. O novo valor é escrito no Bloco B original
5. O snapshot agora aponta para a cópia do Bloco B antigo; o volume original tem o Bloco B novo
\`\`\`
Estado inicial:
Volume → [A] [B] [C] [D]
Snapshot → [A] [B] [C] [D] ← mesmo endereço físico
Após modificar B (COW):
Volume → [A] [B-novo] [C] [D]
Snapshot → [A] [B-antigo-cópia] [C] [D]
↑ foi copiado antes da escrita
\`\`\`
### O efeito colateral do COW
Cada escrita em um bloco que ainda não foi "protegido" gera **duas operações de I/O** em vez de uma: a cópia do dado antigo e depois a escrita do dado novo. Isso aumenta a latência nesse primeiro write — é o chamado **copy-on-write penalty**.
Com o tempo, conforme mais blocos são modificados, esse overhead vai diminuindo (porque os blocos já copiados não precisam ser copiados de novo). Mas em momentos de alta atividade logo após criar um snapshot, o impacto pode ser perceptível.
---
## Técnica 2: Redirect-on-Write (ROW)
O **Redirect-on-Write** resolve o problema de performance do COW com uma abordagem diferente: em vez de copiar o dado antigo, **redireciona as novas escritas para um novo local**.
### Como funciona passo a passo
1. Snapshot criado — mapa de referência copiado
2. Uma aplicação modifica o Bloco B
3. Em vez de sobrescrever o Bloco B original, o sistema aloca um **novo bloco** em outro lugar e escreve lá
4. O volume original atualiza seu mapa para apontar para o novo bloco
5. O snapshot continua apontando para o Bloco B original — que nunca foi tocado
\`\`\`
Estado inicial:
Volume → [A] [B] [C] [D]
Snapshot → [A] [B] [C] [D]
Após modificar B (ROW):
Volume → [A] [B-novo em outro lugar] [C] [D]
Snapshot → [A] [B-original intacto] [C] [D]
↑ nunca foi modificado
\`\`\`
### A vantagem e o trade-off
A escrita é uma operação simples — sem cópias extras, sem overhead no write path. É por isso que ROW é favorito em arrays all-flash onde latência é crítica.
O trade-off é a **fragmentação**: com o tempo, os blocos do volume ficam espalhados em locais físicos não contíguos. Em discos rotativos (HDD), isso era um problema sério de performance. Em flash (SSD/NVMe), a fragmentação tem impacto muito menor, o que explica por que ROW ganhou popularidade com a adoção do all-flash.
---
## Técnica 3: Full Copy (Split Mirror)
Existe uma terceira abordagem, menos "elegante" mas com propriedades interessantes: a **cópia completa via split mirror**.
Aqui, o storage mantém um **espelho sincronizado** do volume — dois conjuntos de blocos idênticos, atualizados em paralelo a cada escrita. Quando você quer um snapshot, simplesmente **separa** (split) o espelho: os dois volumes deixam de se sincronizar e cada um segue seu caminho.
\`\`\`
Durante operação normal (mirror ativo):
Volume original → [A] [B] [C] [D]
Mirror → [A] [B] [C] [D] ← cópia sempre atualizada
Após o split:
Volume original → continua recebendo escritas
Snapshot → [A] [B] [C] [D] ← congelado no momento do split
\`\`\`
### Quando faz sentido
A full copy ocupa o dobro do espaço (você precisa manter o mirror sempre ativo), mas o snapshot resultante é **completamente independente** do volume original — sem cadeia de dependências, sem overhead de copy-on-write. Recovery é direto: o espelho pode ser remontado em outro host imediatamente.
É a abordagem preferida quando velocidade de recovery e independência total são mais importantes que eficiência de espaço — cenários de missão crítica, dev/test com cargas pesadas, ou bases de clones frequentes.
---
## Consistência: Crash-Consistent vs Application-Consistent
Criar um snapshot é rápido — mas criar um snapshot **útil** exige atenção a um detalhe importante: a consistência dos dados no momento do snapshot.
### Crash-Consistent
Um snapshot **crash-consistent** captura o estado exato dos blocos em disco naquele momento — incluindo qualquer dado que estava em memória (buffer do banco de dados, cache do sistema operacional) e ainda **não tinha sido escrito no disco**.