Serviço de object storage do Google Cloud com integração nativa ao ecossistema de analytics do GCP.
Google Cloud Storage (GCS) é um serviço de object storage unificado, escalável e durável oferecido pelo Google Cloud Platform. Projetado para integração perfeita com ferramentas de analytics e machine learning do Google, oferece armazenamento para qualquer quantidade de dados com acesso global.
Lançado em 2010, Google Cloud Storage foi construído sobre a mesma infraestrutura que o Google usa internamente. Evoluiu para se tornar uma peça central do ecossistema Google Cloud, especialmente para workloads de analytics e AI/ML.
GCS usa uma arquitetura global distribuída com buckets organizados por regiões ou multi-regiões. Os dados são automaticamente criptografados e replicados para garantir durabilidade. A integração nativa com BigQuery, Dataflow e outros serviços GCP é um diferencial.
Consultas SQL diretas em dados armazenados no GCS via BigQuery.
Otimização automática de custos baseada em padrões de acesso.
Migração de dados de outros provedores cloud ou on-premises.
Notificações em tempo real para mudanças em objects.
Tamanho Máximo de Object: | 5 TB |
Durabilidade: | 99.999999999% (11 9's) |
Classes de Storage: | Standard, Nearline, Coldline, Archive |
Regiões: | 35+ regiões globalmente |
SLA Disponibilidade: | 99.95% (Multi-regional) |
Armazenamento para data lakes com consultas diretas via BigQuery.
Exemplo: Spotify usa GCS + BigQuery para analytics de streaming de música.Storage otimizado para datasets de ML e integração com AI Platform.
Exemplo: Empresas treinam modelos TensorFlow com dados armazenados no GCS.Hospedagem de conteúdo estático com CDN integrado do Google.
Exemplo: Aplicações móveis servem assets estáticos via GCS + Cloud CDN.# Instalar gcloud CLI
curl https://sdk.cloud.google.com | bash
# Autenticar
gcloud auth login
# Criar bucket
gsutil mb gs://meu-bucket-exemplo
# Upload de arquivo
gsutil cp arquivo.txt gs://meu-bucket-exemplo/
# Listar objetos
gsutil ls gs://meu-bucket-exemplo/
# Sincronizar diretório
gsutil -m rsync -r ./local-dir gs://meu-bucket-exemplo/remote-dir
from google.cloud import storage
# Criar cliente
client = storage.Client()
# Criar bucket
bucket = client.create_bucket('meu-bucket-exemplo')
# Upload de arquivo
blob = bucket.blob('remote-file.txt')
blob.upload_from_filename('local-file.txt')
# Download de arquivo
blob.download_to_filename('downloaded-file.txt')
# Listar objetos
for blob in bucket.list_blobs():
print(blob.name)
# Configurar lifecycle
rule = {
'action': {'type': 'SetStorageClass', 'storageClass': 'NEARLINE'},
'condition': {'age': 30}
}
bucket.lifecycle_rules = [rule]
bucket.patch()
# Criar bucket GCS
resource "google_storage_bucket" "data_lake" {
name = "minha-empresa-data-lake"
location = "US"
lifecycle_rule {
condition {
age = 30
}
action {
type = "SetStorageClass"
storage_class = "NEARLINE"
}
}
lifecycle_rule {
condition {
age = 90
}
action {
type = "SetStorageClass"
storage_class = "COLDLINE"
}
}
}
# Configurar IAM
resource "google_storage_bucket_iam_member" "viewer" {
bucket = google_storage_bucket.data_lake.name
role = "roles/storage.objectViewer"
member = "serviceAccount:analytics@myproject.iam.gserviceaccount.com"
}
Tecnologia | Performance | Facilidade de Uso | Analytics Integration | Preço |
---|---|---|---|---|
Google Cloud Storage | ★★★★☆ | ★★★★☆ | ★★★★★ | ★★★★☆ |
Amazon S3 | ★★★★★ | ★★★★★ | ★★★☆☆ | ★★★☆☆ |
Azure Blob Storage | ★★★★☆ | ★★★★☆ | ★★★☆☆ | ★★★☆☆ |
MinIO | ★★★★☆ | ★★★☆☆ | ★★☆☆☆ | ★★★★★ |
Escolha Google Cloud Storage se você foca em analytics e machine learning. A integração nativa com BigQuery e ferramentas de AI/ML do Google oferece vantagens significativas para esses casos de uso.