Skip to main content
Category

Institucional

Repatriação de dados: Uma Estratégia Essencial no Panorama Tecnológico Atual

By Institucional No Comments

À medida que as preocupações com segurança cibernética, privacidade de dados e soberania tecnológica aumentam, mais empresas e governos estão reconhecendo a importância de ter controle direto sobre seus dados. Esse controle é alcançado por meio da repatriação de dados, que envolve trazer informações sensíveis de volta para servidores e data centers nacionais.

O que é Repatriação de Dados?

Resumidamente, a repatriação de dados é o processo de transferir dados de servidores ou data centers estrangeiros de volta para o país de origem. Isso é feito, principalmente, para garantir maior controle, segurança e conformidade com regulamentações locais. Ao repatriar os dados, as empresas podem armazenar e gerenciar suas informações sensíveis em conformidade com as leis e regulamentos do país onde estão sediadas, reduzindo assim o risco de violações de segurança e conformidade.

Vantagens da Adoção de Repatriação de Dados

A repatriação de dados oferece várias vantagens estratégicas que podem beneficiar tanto empresas quanto governos, especialmente no contexto tecnológico atual. Vamos explorar essas vantagens em detalhe:

Maior Controle e Segurança de Dados

Uma das vantagens mais evidentes da repatriação de dados é o aumento do controle sobre as informações críticas das organizações. Ao trazer os dados de volta para casa, as empresas podem exercer maior supervisão sobre como eles são gerenciados, armazenados e protegidos. Com controle total, as organizações podem garantir que apenas as pessoas autorizadas tenham acesso às informações sensíveis, diminuindo os riscos de uso indevido e exposição de dados. Manter os dados dentro das fronteiras nacionais pode reduzir os riscos de exposição a violações de segurança, espionagem e acesso não autorizado.

Conformidade com Regulamentações

A repatriação contribui significativamente para uma maior conformidade com regulamentações e leis locais e internacionais. Muitos países têm leis específicas que regem como os dados dos cidadãos devem ser tratados e protegidos. Ao armazenar os dados dentro das fronteiras nacionais, as empresas podem garantir que estão em conformidade com as regulamentações do seu país, evitando potenciais conflitos com outras legislações. A conformidade regulatória não apenas reduz o risco de penalidades legais e financeiras, mas também aumenta a confiança dos clientes e parceiros.

Soberania Tecnológica e Independência Nacional

Repatriar dados envolve a capacidade de um país ou organização proteger seus sistemas de informação, dados e infraestrutura digital contra influências externas indesejadas, garantindo assim sua integridade, segurança e confiabilidade. Isso fortalece a soberania tecnológica, permitindo que as empresas e governos mantenham o controle total sobre suas informações críticas e infraestrutura digital.

Resiliência Operacional

A repatriação de dados garante que as organizações possam enfrentar e superar desafios e interrupções de forma eficaz e eficiente. Ao adotar uma abordagem proativa, é possível minimizar riscos e garantir a continuidade das operações. Isso inclui a capacidade de recuperar rapidamente os dados e continuar as operações mesmo diante de crises ou falhas de infraestrutura.

Redução de Custos a Longo Prazo

Embora a repatriação de dados envolva custos iniciais de migração, por exemplo, o potencial de economias a longo prazo é um dos principais fatores que impulsionam as empresas a optar por essa estratégia. Ao repatriar, as empresas podem reduzir significativamente os custos contínuos associados à manutenção de infraestruturas de armazenamento de dados em servidores internacionais. Isso inclui economias em taxas de serviço, manutenção e suporte, além de evitar custos associados a conformidade com regulamentações internacionais.

Aumento da Confiança e Reputação

A conformidade regulatória e a segurança aprimorada resultantes da repatriação de dados não apenas reduzem os riscos de penalidades legais e financeiras, mas também aumentam a confiança dos clientes e parceiros. Empresas que demonstram um compromisso com a proteção de dados e a conformidade regulatória ganham uma reputação positiva, o que pode ser um diferencial competitivo significativo.

Tendências Futuras

Regulamentações mais rigorosas

À medida que os governos ao redor do mundo implementam leis de privacidade de dados mais rigorosas, a necessidade de repatria-los para garantir conformidade continuará a crescer.

Adoção de tecnologias de nuvem híbrida

As empresas estão cada vez mais adotando modelos de nuvem híbrida que combinam infraestruturas locais com serviços de nuvem pública, facilitando a repatriação de dados e garantindo flexibilidade e segurança.

Desenvolvimento de infraestruturas locais

Investimentos em data centers locais e infraestrutura de TI aumentarão, permitindo uma transição mais suave para a repatriação.

Conclusão

A repatriação de dados representa uma estratégia essencial no atual panorama tecnológico, oferecendo às empresas e governos maior controle, segurança e conformidade regulatória.

É crucial que as organizações estejam cientes dos desafios envolvidos, como os custos iniciais e a complexidade do processo de migração. Planejamento cuidadoso, uso de tecnologias adequadas e consideração das regulamentações internacionais são essenciais para uma transição bem-sucedida e a garantia de que será uma decisão financeiramente sensata a longo prazo.

Olhando para o futuro, a repatriação de dados continuará a ser uma prioridade à medida que as regulamentações de privacidade de dados se tornarem mais rigorosas e as preocupações com a soberania tecnológica aumentarem. A adoção de práticas sustentáveis e a construção de uma infraestrutura tecnológica robusta localmente, também desempenharão um papel crucial nesse processo.

Conte conosco!

Oferecemos consultoria especializada em PostgreSQL para ajudar empresas a encontrarem um crescimento tecnológico sustentável através de uma combinação de expertise técnica e visão de negócios, que vai do panorama estratégico até a implementação operacional. Estamos prontos para oferecer suporte contínuo, assegurando que seus dados permaneçam seguros e suas operações não parem.

[>> Quero falar com a Timbira!]

PGConf Brasil 2022 – DBA Balboa: Como a resiliência de Rocky pode impactar na sua jornada? Por Emanuel Araujo Carneiro

By Institucional No Comments

Pensando sobre o ecossistema de Rocky Balboa (Sylvester Stallone), seja você um amante ou não dos filmes, é inegável que a série traz um drama especial com fases que sustentam e evoluem uma necessidade intrínseca muitas vezes identificada tardiamente: a resiliência.

Na PGConf.Brasil 2022, Emanuel Araujo consultor da Timbira, explicou que a resiliência nada mais é do que nossa capacidade de adaptação em meio a situações complicadas ou adversas. Durante sua palestra, ele definiu a adaptação como um equilíbrio físico e psicológico diante das adversidades cotidianas. E também que, embora não tenhamos controle sobre todos os aspectos de nossas vidas e eventos aleatórios que nos acometem, temos o controle sobre o modo como reagimos a essas situações.

Você tem poder sobre sua mente – não sobre eventos externos. Perceba isso e você encontrará sua força” (Marco Aurélio).

Emanuel destacou que Marco Aurélio já nos alertava sobre a importância de lidarmos com nossos pensamentos e não nos deixarmos abater por eventos externos. A trajetória de Rocky exemplifica como um conjunto de experiências pode fortalecer a resiliência e o amadurecimento pessoal ao longo dos filmes.

Traçando um paralelo entre os quatro primeiros filmes da série, e os quadrantes de maturidade, Emanuel explicou como funciona esse modelo teórico usado para descrever os estágios de desenvolvimento de habilidades, competências ou maturidade em diversos contextos, sejam pessoais, profissionais ou organizacionais.

Quadrante M1

No início, Rocky é um iniciante desajeitado e canhoto, um estrangeiro no mundo do boxe, mas de bom coração (M1). Ele não tem capacidade técnica e precisa apenas executar sem pensar muito. O bom coração de Rocky reflete suas soft skills, que se desenvolvem ao longo da série, acompanhando sua evolução.

Quadrante M2

Seguindo o roteiro, depois de empatar na sua luta final, podemos dizer que Rocky passou de fase. Chegando então ao quadrante M2, já possuindo experiência mínima, é bem visto pelo público, ganhou confiança e agora precisa não apenas executar, mas adquirir a competência de pensar antes de agir, ou seja, planejar sua execução. Com a nova grande chance que tem, seu treino se torna mais customizado e sua responsabilidade aumenta a cada novo dia. O planejamento da nova estratégia de luta foi decisivo e ao final o tornou campeão mundial de boxe.

Quadrante M3

No terceiro quadrante, surgem as armadilhas do nível 3 de maturidade: o excesso de confiança, conforto e a incapacidade de pensar em riscos. Um bom momento para reparar que em momentos da vida podemos estar no topo e em seguida no chão do ringue. Rocky se vê em um buraco, pois além de perder vergonhosamente o título mundial, perde seu treinador Mickey (Burgess Meredith), que morreu de ataque cardíaco antes da luta com Clubber Lang (Mr. T) iniciar. Existem grandes batalhas na vida e perder entes queridos é uma delas. A culpa de não poder ter feito mais, a dependência de não poder contar com determinadas pessoas, passa dia após dia em nossas mentes, nos testando ou nos preparando. No terceiro nível de maturidade ocorrem situações onde precisamos saber muito bem quem somos, para não assumirmos o que não podemos, achando que somos invencíveis, até nos depararmos com uma palavrinha chamada medo.

O medo é diferente do pânico 

Medo é estado de alerta, é um sentimento que nos dá a capacidade de reagir, de planejar, de ter o cuidado com o que estamos fazendo e com as situações em que nos encontramos. Foi justamente o reconhecimento disso e o apoio de sua esposa Adrian (Talia Shire) que fizeram Rocky mudar o seu posicionamento e voltar a treinar. Agora com seu ex-adversário, e então amigo, Apollo (Carl Weathers), Rocky possui o suporte necessário para desenvolver um planejamento, uma estratégia de luta com disciplina e alegria de estar fazendo o que gosta com as pessoas certas ao seu lado, um verdadeiro time, para no final voltar a ser o campeão mundial de boxe.

Quadrante M4

No quadrante M4, Rocky enfrenta uma nova adversidade: a morte de Apollo Creed. Depois de ter passado por várias situações da vida, a morte de Mickie, o topo, a família, o fracasso, o medo, com o nível de resiliência alto, Rocky passa por uma nova fase. Em meio a um contexto de rivalidade entre EUA e URSS, o que deveria ser uma luta de exibição acaba com a morte de seu amigo e treinador, Apollo. A grande diferença do quadrante M4 é que nosso nível de resiliência está mais robusto, preenchido de experiências e sentimentos já conhecidos, e com isso temos a capacidade de adaptação aos novos eventos, reconhecê-los, resolvê-los ou tomar decisões com muito mais controle. 

A cena em que Rocky está dirigindo seu carro após o enterro de Apollo, mostra a capacidade de refletirmos sobre nosso passado, erros, acertos e sentimentos. O filme que passa pela cabeça de Rocky mostra exatamente isso. A sua decisão de lutar na URSS, no dia de Natal, em um local completamente adverso, não apenas pelo frio intenso, mas também pela hostilidade que encontrará por ser um lutador americano, demonstra claramente sua evolução dentro da trajetória de maturidade. Rocky compreende a dificuldade que enfrentará e olha para todo o processo através de uma lente de humildade, buscando abrigo no isolamento e focando todos seus esforços em treinar sem ninguém para julgar ou atrapalhar a concentração de seu treino. Consciente do momento que está vivendo ele traz para perto de si aquelas pessoas em quem ele confia plenamente e que lhe dão o suporte necessário para atingir seus objetivos. Todas essas etapas sendo muito bem pensadas, planejadas e com a equipe certa para fazer o trabalho certo, o levaram aos melhores resultados possíveis.

Rocky V

“Rocky 5” fecha com chave de ouro o pilar de liderança espontânea, quando Rocky passa a treinar um jovem potencial, do zero ao título. Isso não seria algo comum aos líderes que transformam empresas? Ser o agente de mudança de sua equipe ou de sua família? Essa continuação podemos deixar para um próximo post.

Processo de Maturidade

Esse ciclo de maturidade representa vários contextos e está representados em cada etapa de nossa vida profissional e pessoal, o exemplo do Rocky Balboa é apenas uma forma de ilustrarmos essa trajetória. Posso ser M1 na cozinha e M4 em programação java, por exemplo. Cada competência, etapa ou contexto evolui através de um processo de maturação que está intrinsecamente ligado às experiências acumuladas ao longo do tempo. Esse processo não apenas fortalece nossa resiliência, como também amplia nossa capacidade de lidar com desafios e adversidades.

Keep calm, reflita e vamos buscar ser melhores do que ontem.

[Quero assistir a palestra completa]

Automatização de tarefas repetitivas no PostgreSQL: agilizando operações e reduzindo erros

By Institucional No Comments

Em um ambiente dinâmico de gerenciamento de banco de dados PostgreSQL, a eficiência operacional é muito importante para garantir a estabilidade e o desempenho consistentes. Uma abordagem fundamental para alcançar esse objetivo é a automatização de tarefas repetitivas, um processo que não apenas economiza tempo, mas também minimiza a probabilidade de erros humanos.

Por que automatizar?

Tarefas operacionais, como backup, otimização de índices e monitoramento, frequentemente consomem recursos significativos, exigindo intervenção manual frequente. A automação dessas tarefas não apenas libera a equipe para se concentrar em atividades mais estratégicas, mas também reduz a margem de erro humano, associada a intervenções manuais repetitivas. Como, por exemplo:

1- Backups: o time que administra o banco de dados pode esquecer de fazer backups regularmente, o que pode resultar na perda de dados em caso de falha no sistema.

2- Scripts SQL: ao executar manualmente scripts SQL para tarefas como limpeza de dados antigos ou otimização de consultas, a pessoa que está digitando os comandos, pode cometer erros de sintaxe que geram retrabalho ou mesmo erros de lógica, que podem causar problemas de integridade.

3- Comandos incorretos: ao executar rotineiramente comandos manuais, uma pessoa operando o banco pode executar comandos incorretos por engano. Um exemplo é executar um expurgo manual de dados e esquecer de utilizar algum filtro ou mesmo colocar um “;” (ponto-e-vírgula) onde não deveria e, com isso, excluir dados importantes em vez de dados obsoletos, durante esta limpeza de dados antigos.

4- Otimizações regulares: sem automatização, o time que administra o banco de dados pode esquecer de realizar otimizações regulares, levando à degradação do desempenho ao longo do tempo.

5- Monitorar o desempenho: sem ferramentas de automação para coletar dados, monitorar o desempenho do banco de dados e emitir notificações, o time que opera o banco o ambiente pode não identificar problemas de desempenho até que eles afetem negativamente os usuários finais.

Como automatizar?

Para efetuar tarefas repetitivas — tais como a realização de backups, a exclusão de dados obsoletos e a otimização de objetos no banco — uma prática comum de automação no PostgreSQL envolve a criação de scripts utilizando linguagens como Bash ou Python, e, em alguns casos, até mesmo PL/pgSQL. 

Abaixo, apresentamos dois exemplos de tarefas usuais e como podemos automatizá-las.

Backups

Os backups constituem uma medida fundamental para proteger os dados contra perdas ou danos. No contexto do PostgreSQL, é possível efetuar backups recorrendo a utilitários como o pg_dump, para backups lógicos, ou pg_basebackup, para backups físicos.

A automatização pode ser feita por meio de scripts ou recorrer a ferramentas de automação e agendamento que permite programar a execução de backups automáticos em momentos específicos. Por exemplo, pode-se elaborar um script configurado para realizar backups diários no período da madrugada, aproveitando a redução da atividade no sistema.

Em sistemas Linux é comum utilizar o utilitário “crontab” que é uma ferramenta disponível utilizada para agendar a execução automática de tarefas em horários específicos. Isso o torna útil para automatizar uma série de operações de manutenção de bancos de dados PostgreSQL, como backups, por exemplo.

Um exemplo prático é que podemos agendar um script que executa o pg_dump ou pg_basebackup para executar automaticamente durante a madrugada. Por exemplo, para um backup diário às 2 AM, uma entrada no crontab pode parecer com isso:

0 2 * * * /caminho/para/script_backup.sh

Já no Windows, você pode utilizar o Agendador de Tarefas que pode ser chamado pelo comando taskschd.msc. A diferença é que, no Windows, você criará um script em um arquivo BAT ou em Power Shell que será executado pelo agendador de tarefas conforme o agendamento configurado.

> Para saber mais sobre crontab 
> Para saber mais sobre o Agendador de Tarefas

Limpeza de dados antigos

Em muitos sistemas, é necessário remover periodicamente dados antigos para manter o banco de dados limpo e otimizado. Isso é importante em bancos de dados com grande volume de dados que podem impactar no desempenho das consultas.
A automatização nestes cenários pode ser feita através de procedures em PL/SQL ou mesmo PL/pgSQL, desenvolvendo mecanismos para identificar e excluir registros com base em critérios de validade ou outros critérios específicos. Essas procedures podem ser agendadas para executarem em intervalos regulares, garantindo que dados obsoletos sejam removidos automaticamente.
Uma vez que você tenha implementado a sua regra em uma procedure no Postgres, você pode utilizar a extensão “pg_cron” para agendar as execuções. Veja o exemplo abaixo onde uma procedure que remove registros criados há mais de 1 ano:

CREATE OR REPLACE PROCEDURE expurgar_dados_antigos()
LANGUAGE sql
AS $$
DELETE FROM registros
WHERE data_criacao < NOW() – INTERVAL ‘1 year’;
$$;

Agora, suponha que este procedimento precise executar diariamente às 3 horas da madrugada. Utilizando o pg_cron podemos criar um agendamento recorrente com um simples comando:

SELECT cron.schedule(‘expurgo’, ‘0 3 * * *’, ‘CALL expurgar_dados_antigos()’);

Caso queira desabilitar este expurgo por algum motivo, você pode utilizar o comando:

SELECT cron.unschedule(‘expurgo’);

> Para saber mais sobre procedures 
> Para saber mais sobre pg_cron

Esses são apenas alguns exemplos para servirem como ponto de partida e podem ser adaptados para suas necessidades.

Ganho de Eficiência e Redução de Riscos

Em resumo, a automatização de tarefas repetitivas no PostgreSQL não é apenas uma prática conveniente, mas uma estratégia essencial para otimizar operações e reduzir erros operacionais. Ao adotar uma abordagem proativa para a gestão de tarefas rotineiras, as equipes de banco de dados podem garantir a estabilidade, eficiência e integridade dos dados, posicionando-se para enfrentar desafios operacionais com confiança.

Se você está buscando otimizar o desempenho e a confiabilidade do seu banco de dados PostgreSQL, a Timbira está aqui para ajudar. Podemos oferecer orientação especializada para automatizar tarefas repetitivas, implementar melhores práticas e garantir que seu banco de dados esteja funcionando de forma eficiente e segura.

[>> Quero falar com a Timbira]

PostgreSQL: Versão 11 não receberá mais atualizações!

By Institucional No Comments

No dia 09 de novembro de 2023, o PostgreSQL 11 chegou ao fim de sua vida útil e não receberá mais correções de bugs e atualizações de segurança.
Lançada em 18 de outubro de 2018, a versão 11 nos trouxe algumas melhorias significativas, que nos permitiram extrair resultados aprimorados no PostgreSQL. Entre essas melhorias, destacamos algumas:

  • Particionamento
    Possibilidade de criar um particionamento por uma chave hash;
    Suporte à criação de uma partição padrão, que permitiu armazenar o dado que não corresponde com a regra das partições existentes;
    Melhoria no planejamento de consultas que utilizam tabelas particionadas, possibilitando a eliminação de partições desnecessárias durante a execução;
  • Paralelismo
    Possibilidade de criação de um índice btree de forma paralelizada;
    Melhoria de desempenho nos hash joins e varreduras sequenciais;
  • Procedures
    Foi adicionado o suporte a procedures, garantindo maior compatibilidade com outros banco de dados de mercado;
  • Índices
    Adicionado a cláusula INCLUDE, que permite especificar uma lista de colunas que serão incluídas no índice;
  • Desempenho
    Foi aprimorado com a capacidade de evitar a reescrita de uma tabela para um ALTER TABLE … ADD COLUMN com um default de coluna non-null;
  • Just-in-time Compilation (JIT)
    Adição do parâmetro JIT, , que determina se a compilação JIT pode ser usada pelo PostgreSQL para acelerar a avaliação de expressões.

Atualmente, o PostgreSQL adota uma política de versionamento, lançando uma nova versão a cada ano, geralmente entre os meses de Agosto e Novembro. Após o lançamento, cada versão é suportada por cinco anos, o que significa que ela não receberá novos recursos, apenas correções de bugs e atualizações de segurança. Caso queira saber mais sobre esse ponto, você pode acompanhar a política de versionamento neste link.

Diante dessa informação, nossa recomendação para a maioria dos casos é a migração para uma versão mais recente do PostgreSQL. No entanto, surge uma pergunta importante: quando é o momento adequado para realizar essa atualização? Sabemos que uma migração envolve diversas variáveis, incluindo esforço financeiro e humano. No intuito de auxiliar nessa tomada de decisão, elencamos alguns pontos importantes a serem considerados para escolha do momento ideal para implementar esse processo nos seus ambientes PostgreSQL.

Fim do suporte da sua versão atual

Seguindo a política de versionamento, uma versão, após ser lançada, recebe aproximadamente cinco anos de suporte pela comunidade. Nesse sentido, as atualizações de segurança ou correções de bugs, vitais para manter seu ambiente sustentável, têm uma data prevista para serem encerradas, a partir da expiração desse prazo.

Crescimento da demanda do seu banco de dados

Com o crescimento do seu negócio, o seu ambiente postgreSQL pode demandar melhores tempos de resposta e esse pode ser um ponto importante na decisão de migrar. A cada versão o PostgreSQL adiciona novos recursos, mas também aperfeiçoa recursos existentes. Com isso, manter seu ambiente atualizado garantirá uma melhor utilização dos recursos computacionais e, consequentemente, isso se refletirá no usuário final.

Necessidade de novas funcionalidades em seu negócio

A cada nova versão, são lançados novos recursos que têm o potencial de aprimorar a eficiência operacional. Portanto, ao planejar uma migração, você estará incorporando essas funcionalidades ao seu ambiente, garantindo melhores resultados para o seu negócio.

Aprimoramento da eficiência operacional

Novas versões trazem melhorias nas ferramentas de administração e manutenção do PostgreSQL. Se você busca melhorar a sua eficiência operacional, é um ponto a se considerar na decisão de migrar para uma versão mais recente.

Segurança é um ponto chave para o seu negócio

A cada nova versão, são incorporados novos recursos de segurança. Nos dias de hoje, considerando que os dados são vistos como o “novo petróleo”, é crucial manter a máxima precaução nesse aspecto. Manter-se sempre atualizado ajudará a evitar possíveis problemas e vulnerabilidades, uma vez que questões já identificadas e corrigidas estão presentes nas versões mais recentes.

A utilização de novas tecnologias é um destaque em relação aos seus concorrentes

Constantemente, novas ferramentas são desenvolvidas, drivers de conexão são atualizados e bibliotecas emergem. Manter uma versão desatualizada do PostgreSQL pode limitar o acesso a esses recursos inovadores. Por essa razão, consideramos este um ponto fundamental e estratégico para o seu negócio. Manter-se alinhado com as últimas tecnologias potencializará sua posição em relação aos concorrentes.
Além disso, migrar para uma versão mais recente pode proporcionar uma série de benefícios, incluindo melhoria de desempenho, suporte estendido, melhor gerenciamento de recursos, segurança aprimorada e a incorporação de novos recursos. Em uma próxima oportunidade, compartilharemos mais dicas e sugestões sobre como planejar essa atualização.

PostgreSQL 16

No dia 14 de setembro de 2023, foi anunciado o PostgreSQL 16, a versão mais recente do PostgreSQL. Nessa atualização, houve aprimoramentos significativos no desempenho, destacando melhorias notáveis em paralelismo de consultas, carregamento em massa e replicação lógica.
Entre os destaques estão a expansão da sintaxe SQL/JSON, estatísticas de monitoramento aprimoradas, flexibilidade no controle de acesso e políticas de segurança, melhorias de desempenho, replicação lógica a partir de instâncias standby e suporte a balanceamento de carga. O PostgreSQL 16 também traz melhorias na experiência das pessoas de desenvolvimento, introduzindo novos comandos no psql, suporte a agrupamentos de texto e a adição de métricas de E/S. Para mais detalhes, confira o link.

Processo de Migração

O processo de migração deve ser tratado como um projeto, dividido em várias fases, sendo a fase de homologação de suma importância e necessitando de cuidados especiais. Durante esse projeto, é crucial analisar todas as mudanças que ocorreram desde a versão atual até a versão alvo da migração. Essa atividade é fundamental para mapear os principais pontos de impacto do projeto. Recomenda-se sempre migrar para uma versão mais recente, e essas migrações devem ser incorporadas ao roadmap. Isso garante que as migrações ocorram em intervalos menores e com menor impacto de mudanças, facilitando a transição.

Atualmente, existem diversas estratégias para realizar a migração, como, por exemplo, o dump/restore, pg_upgrade ou até mesmo usando replicação lógica. A escolha desta estratégia dependerá de alguns fatores, como o tempo disponível para a janela de manutenção (downtime) e a estratégia de rollback.
Caso a decisão seja migrar para a última versão disponível do PostgreSQL, uma boa prática é aguardar pelo menos a primeira release de minor version (ex.: 16.1). Isso ajuda a prevenir possíveis riscos no ambiente causados por bugs na versão inicial.

Dica Importante!

Se você estiver executando o PostgreSQL 11 em um ambiente de produção, sugerimos que você faça planos para atualizar para uma versão mais recente e compatível do PostgreSQL. A migração para uma versão recente do PostgreSQL não é apenas uma atualização técnica, mas uma estratégia proativa para otimizar seu ambiente de banco de dados, melhorar a segurança, e se manter competitivo em um cenário tecnológico em constante evolução.

Se você precisa de ajuda no processo de planejamento, organização e implementação de uma migração no seu ambiente PostgreSQL, entre em contato com nosso time de atendimento. O futuro da sua empresa pode depender disso.

[>> Quero falar com a Timbira!]

Como o VACUUM pode influenciar o desempenho do seu PostgreSQL?

By Institucional No Comments

Uma característica importante do PostgreSQL é o isolamento de suas transações. Esse mecanismo utiliza o método MVCC (Multiversion Concurrency Control), ou Controle de Concorrência Multiversão. Este método apresenta vantagens e possibilidades a partir de seus mecanismos implementados, como, por exemplo, a redução de bloqueios ao permitir que várias transações simultâneas acessem os mesmos registros. Isso resulta em um cenário em que leituras não bloqueiam escritas e vice-versa. Por outro lado, uma desvantagem dessa arquitetura é o versionamento das linhas que não serão mais utilizadas (também conhecidas como tuplas mortas), exigindo algum mecanismo de limpeza.

Para solucionar esse problema, o PostgreSQL utiliza um recurso chamado VACUUM, que é responsável por efetuar essa limpeza. Esse recurso pode ser acionado manualmente por comandos simples ou de forma automática através do Autovacuum.

Neste texto, você poderá entender um pouco mais sobre o VACUUM e também sobre as melhorias implementadas na versão 16 do PostgreSQL, que foi lançada no dia 31 de agosto de 2023.

Quais são os tipos de Vacuum?

Antes de tudo é preciso compreender que o Vacuum no PostgreSQL apresenta algumas variações básicas. Aqui estão as principais:

VACUUM

De maneira simplificada, o VACUUM é uma ferramenta muito útil para identificar registros não utilizados no banco de dados, permitindo a recuperação de espaço em disco e melhorando o desempenho das consultas. Este comando pode operar em paralelo com a leitura e escrita normais da tabela, pois o Postgres não obtém um bloqueio exclusivo das tuplas desta tabela que sofre o VACUUM. Contudo, na maioria dos casos, o espaço extra não é devolvido ao sistema operacional; ele permanece disponível para reutilização na mesma tabela.

No PostgreSQL, os registros não são deletados fisicamente, mas marcados como inúteis, prática comum em diversas aplicações. De maneira geral, a ideia é tornar as operações de update mais eficientes e evitar um crescimento desnecessário da tabela, por isso entender a dinâmica do modelo de negócio é importante, assim como optar pela técnica do VACUUM mais adequada para cada banco de dados.

VACUUM FULL

O VACUUM FULL faz uma recriação de toda a tabela (objeto), deixando-a somente com registros válidos, pois ele grava uma nova cópia da tabela e não libera a tabela antiga até concluir a operação. Este procedimento requer cautela, pois é invasivo, precisa de espaço em disco suficiente, causa bloqueio da tabela e gera indisponibilidade de acesso durante sua execução. Dessa forma, é recomendável sempre programar uma janela de manutenção para esse tipo de procedimento.

Algumas empresas executam esse procedimento em situações bem específicas, como quando a base de dados atinge um tamanho considerável, com muitas tabelas, e existe a necessidade urgente de liberar espaço em disco, com a premissa de que downtime não prejudique os usuários. Uma dica importante: por questões de segurança, essa ação deve ser permitida apenas pelo superusuário do banco de dados e só pode ser executada de forma manual. Ou seja, nenhum processo do PostgreSQL executará um VACUUM FULL automático.

VACUUM FREEZE

O VACUUM FREEZE realiza um “congelamento” agressivo das linhas, essencialmente congelando o ID da transação para todas as páginas, independentemente de terem sido modificadas ou não. Isto faz com que todas as linhas atuais sejam vistas como antigas para todas as novas transações. Vale destacar que essa opção é sempre ativada ao usar o VACUUM FULL. Como citado anteriormente, o VACUUM FULL reescreve e corrige os dados, incluindo o VACUUM FREEZE. Embora sejam opções semelhantes, elas não são idênticas.

VACUUM VERBOSE

O VACUUM VERBOSE permite um acompanhamento de todas as ações que ocorrem durante o processo. Esse parâmetro possibilita a geração de um relatório detalhado de tudo o que está sendo executado pelo comando VACUUM.

O comando “VACUUM VERBOSE” é bastante útil para analisar possíveis falhas na execução do VACUUM ou até mesmo para conferir estatísticas após sua execução. Esse comando pode ser utilizado em conjunto com qualquer tipo de VACUUM. Exemplos: VACUUM VERBOSE FREEZE, VACUUM VERBOSE FULL.

VACUUM ANALYZE

Esta opção é responsável por atualizar as estatísticas usadas pelo planejador do plano de consultas. Embora possa ser acionada individualmente, quando em conjunto com o VACUUM traz uma excelente abordagem de otimização. Isso ocorre porque requer apenas o bloqueio de leitura da tabela, permitindo que as demais transações ocorram normalmente no banco de dados. E assim como o VACUUM VERBOSE, esse comando também pode ser utilizado em conjunto de qualquer tipo de VACUUM.

A execução coordenada do VACUUM e ANALYZE é essencial para manter atualizadas as estatísticas do banco de dados, possibilitando melhorar a performance nas pesquisas.

Autovacuum do PostgreSQL

Embora seja uma ferramenta opcional, é fortemente recomendado que esse processo nunca seja desativado em seu banco de dados. Essa funcionalidade, executada automaticamente pelo sistema gerenciador do PostgreSQL, realiza as operações de VACUUM e ANALYZE em segundo plano. O controle desse processo é realizado através dos valores definidos nos parâmetros de configuração.

O Autovacuum é nativo do PostgreSQL, permitindo a configuração para que o próprio banco execute o VACUUM simples (sem o FULL). É indicado para monitorar picos inesperados nas tabelas, devido às suas regras de verificação que determinam em quais tabelas as ações de limpeza devem ser executadas. Dessa forma se garante que todas tabelas (em todos os bancos de dados) que excedam estes valores sejam marcadas para o VACUUM. Esse processo conta com outros procedimentos integrados para seu funcionamento eficaz.

Existem outros tipos de VACUUM que você pode consultar aqui!

Entendendo as melhorias na atualização do PostgreSQL 16:

A partir desta versão, o VACUUM poderá ser utilizado ao fornecer apenas o nome do schema, possibilitando que a execução seja apenas nos objetos desse schema. Essa funcionalidade beneficia empresas que possuem uma organização de seus objetos agrupados por schema e têm a necessidade de realizar a manutenção desses objetos em conjunto.

Um exemplo desse cenário envolve clientes que usam o conceito de multi-tenancy baseado em schemas. Dessa forma, torna-se possível a execução da rotina de manutenção para clientes (schemas) de forma isolada, eliminando a necessidade de criação de recursos personalizados, como o uso de scripts ou blocos de código em pl/pgsql.

Outra implementação do VACUUM para a versão 16 é poder executar a rotina apenas para as tabelas TOAST. O comportamento padrão continua sendo a execução da rotina no objeto principal, o que é recomendado, mas agora há a opção de execução separada, caso necessário.

Dicas e Melhores Práticas

O VACUUM é um procedimento essencial para o desempenho ideal do PostgreSQL. Embora a configuração padrão do autovacuum venha habilitada seguindo métricas de valores globais, alguns cenários exigem que o seu uso seja ponderado ou que venha acompanhado da consultoria de um especialista DBA PostgreSQL. Alguns exemplos de cenários que exigem uma ação mais ponderada são: alto volume de alterações, cargas de dados, tamanho dos objetos, quantidade de tabelas, ou recursos disponíveis no servidor.

Não existe uma recomendação única de parametrização com valores exatos que atenda a todos os cenários. Cada caso é único, o que demanda um ajuste bem elaborado e contínuo. Nesse sentido, podemos ir de uma base com diversos problemas causados pela ausência do trabalho do autovacuum, causando impactos em todo o negócio, para uma situação que exige menos investimentos em infraestrutura e operações, aproveitando o melhor desempenho proporcionado por manutenções bem executadas.

Existem diversas estratégias para configuração e automatização da execução do VACUUM, mas a melhor abordagem é um ajuste customizado de autovacuum para cada tabela no seu banco de dados. Esses valores devem ser baseados em seu volume de alterações, tamanho da tabela, quantidade de recursos disponíveis, entre outras variáveis. Este é um trabalho contínuo que deve evoluir junto com o crescimento do banco de dados.

Como está o seu banco de dados? Já executou alguma operação de VACUUM? A Timbira pode te ajudar com uma consultoria especializada no PostgreSQL. Conte com o nosso time para ajudar o seu banco a performar e ser responsivo.

[Quero avaliar meu ambiente PostgreSQL]

[Quero falar com a Timbira]

A importância de ter uma versão do PostgreSQL atualizada

By Institucional No Comments

A necessidade de armazenar e gerenciar dados com segurança e de forma eficiente fomentou o surgimento dos bancos de dados relacionais. Esse é o caso do PostgreSQL, que surgiu nos anos 80 e vem ganhando espaço em diversas empresas de tamanhos e segmentos diferentes. Especialmente por ser um banco de dados open source e contar com uma comunidade bem ativa, que estuda, desenvolve, testa, corrige bugs e ainda ajuda fortemente a compartilhar versões atualizadas com frequência. Em setembro de 2023, o PostgreSQL Global Development Group anunciou a versão 16 que contou com diversas melhorias que você pode ver detalhadamente no site oficial postgresql.org.

Neste texto você poderá saber mais sobre a importância de manter um banco de dados atualizado. Falaremos sobre questões de segurança, alta disponibilidade, interação com outras aplicações e muito mais, confira.

Muitos gestores e profissionais de TI, às vezes por não estarem em contato direto com o banco, só percebem e entendem a importância dessa prática em situações de crise, que vão desde a perda de clientes por incompatibilidade de sistema, degradação dos dados, perda de performance ou uso excessivo de hardware, até a indisponibilidade da base de dados e ataques cibernéticos. Em suma, prejuízos financeiros e de imagem.

Vulnerabilidades de um Sistema Desatualizado

  • Processamento menos eficiente nas consultas dos dados
    As novas versões do PostgreSQL vêm com várias alterações para otimizar o motor de busca do banco de dados, podendo melhorar significativamente a performance de consultas de sua aplicação.
  • Problemas de compatibilidade
    Aplicações perdem a evolução de funcionalidades que permitiriam aumento de performance, correções de bugs e possibilidade de implementação de novas formas de acessar as informações dos bancos de dados.
  • Performance e brechas de segurança
    Constantemente lidamos com problemas de segurança e estar com uma versão desatualizada aumenta o risco de existirem bugs.

Portanto, questões de segurança, compatibilidade com demais aplicações, perda de performance e o uso excessivo de hardware (CPU) podem ser ocasionadas devido a um banco de dados desatualizado.

O Que Levar em Consideração Quando Buscar Atualizar a Versão do PostgreSQL

A partir do momento que o gestor percebe a necessidade de atualização da versão do seu banco de dados PostgreSQL, deve considerar:

  • No lado do cliente, a aplicação que irá consumir o banco de dados.
    Todos os softwares terão uma boa integração com o banco de dados? A consulta desses dados será performática nesse novo ambiente? Qual será o esforço humano diante das correções necessárias? Então, dependendo do modelo de negócio, esses fatores, somados ao custo benefício, devem ser pensados.
  • O servidor que irá hospedar o sistema, independente do sistema operacional.
    Durante o processo de migração, é crucial avaliar se o hardware atual pode acompanhar o crescimento do seu negócio, termo comumente referido no contexto de bancos de dados como “capacity planning”. O upgrade da versão do sistema operacional também desempenha um papel vital, trazendo consigo novas funcionalidades, melhorias de segurança e correções de bugs. Além disso, ajustes nas configurações do sistema operacional e do PostgreSQL são fundamentais para garantir o desempenho e a estabilidade do ambiente PostgreSQL.
  • A mudança de comportamento de alguns códigos, que pode alterar conforme a versão atualizada.
    Com a atualização de versão, alguns códigos já não produzem os mesmos efeitos de versões anteriores, podendo mudar a dinâmica do banco de dados.

5 motivos para você considerar uma migração para PostgreSQL 16

  1. Melhoria no controle de acesso e segurança
    O PostgreSQL 16 apresenta recursos avançados de segurança, incluindo atualizações nos protocolos de autenticação, controles de acesso (superusuário) e criptografia, assegurando dados seguros e íntegros.
  2. Melhorias de desempenho em consultas
    A última versão do PostgreSQL apresenta importantes melhorias no que tange desempenho, dando velocidade a consultas e operações de leitura. O desempenho aprimorado garante uma experiência fluida ao usuário.
  3. Melhoria no recurso de replicação lógica e monitoramento
    A partir do PostgreSQL 16, os usuários agora têm a capacidade de criar uma replicação lógica a partir de um servidor standby. Essa funcionalidade proporciona portabilidade na distribuição da carga de trabalho. Além disso, houve uma melhoria significativa no desempenho, possibilitando que os assinantes apliquem grandes transações em paralelo.
    Foi adicionada uma nova visão para o monitoramento de I/O, possibilitando um acompanhamento mais preciso da carga de trabalho e ajustes imediatos ao identificar pontos de gargalo. Também foi incluído um novo campo de data/hora na visão de estatísticas de tabela, permitindo verificar quando a tabela ou índice foi utilizado.
  4. Melhoria no suporte a JSON
    Os dados semi-estruturados continuam em uma crescente, e um bom exemplo é o JSON. A nova versão aprimora o suporte a esse formato, facilitando a integração e manipulação de dados complexos, facilitando assim o dia a dia do desenvolvedor que utiliza este recurso.
  5. Portabilidade e padronização
    A compatibilidade com os padrões SQL foram expandidas, com melhorias substanciais de desempenho. Nesse aspecto, os trabalhos de migrações são facilitados, assim como a promoção de operações conjuntas, possibilitando a portabilidade entre diferentes sistemas de gerenciamento de banco de dados.

Se você tiver curiosidade em saber sobre os bugs e alterações de uma versão para outra do PostgreSQL, acesse o site “Why upgrade PostgreSQL?”.Lá você pode inserir o número da versão anterior e comparar com uma versão atual, analisando as marcações em vermelho, que são bugs que foram corrigidos. Você vai notar que muita coisa mudou!

Todo processo de migração, especialmente em bancos em produção, é um trabalho delicado, que requer muita atenção e conhecimento. Se você precisa de ajuda no processo de planejamento, organização e implementação de uma migração segura, entre em contato com nosso time de atendimento. O futuro de sua empresa pode depender disso.

[Quero falar com a Timbira]

Computer Security Day: Você está protegendo seu Banco de Dados PostgreSQL?

By Institucional No Comments

Sistemas de gerenciamento de bancos de dados desempenham um papel muito importante em empresas e organizações. Para os usuários do PostgreSQL, a segurança dos dados é de suma importância. Em 30 de novembro, comemoramos o Computer Security Day, um lembrete de que a cibersegurança é um ponto fundamental em nossa jornada com o PostgreSQL. Neste artigo, vamos explorar a importância deste dia e discutiremos estratégias para proteger nossos dados ao usar o PostgreSQL.

Por que o Computer Security Day é importante para usuários do PostgreSQL?

Os usuários do PostgreSQL têm um motivo adicional para se dedicarem às melhores práticas de segurança. Este sistema de gerenciamento de banco de dados de código aberto é reconhecido por sua flexibilidade e robustez, o que o torna atrativo para uma variedade de  aplicações em organizações de todos os portes. No entanto, essa popularidade também o torna um alvo potencial para ameaças cibernéticas.

À medida que confiamos, informações importantes, sistemas essenciais e  dados críticos ao PostgreSQL, se torna muito importante garantir a segurança desses ativos, destacando a necessidade de medidas proativas para proteger nossos bancos de dados contra ameaças virtuais em constante evolução.

Dicas para Fortalecer a Segurança no PostgreSQL:

  • Senhas Fortes:  O PostgreSQL requer senhas sólidas para garantir o acesso seguro aos dados. Utilize senhas complexas e únicas para suas contas e, sempre que possível, implemente autenticação de dois fatores.
  • Atualização de segurança do sistema operacional: Mantenha o sistema operacional atualizado com as últimas correções de segurança para proteger o seu  ambiente do PostgreSQL.
  • Firewalls : Implemente firewalls e controle de acesso rigorosos para restringir quem pode se conectar ao banco de dados.
  • Controle de Acesso:  Evite  criar usuários com perfil de superusuário. Defina políticas de acesso com base no “princípio do privilégio mínimo”, garantindo que apenas usuários autorizados possam acessar e modificar os dados.
  • Conexões seguras: Utilize métodos seguros de conexão, como SSL/TLS, para estabelecer uma comunicação criptografada entre o cliente e o servidor.
  • Auditoria de Dados:  Ative auditorias de dados no PostgreSQL para monitorar atividades suspeitas e identificar evidências de acesso não autorizado.
  • Backup e Recuperação: Faça backups regulares de seus dados no PostgreSQL e tenha planos de recuperação em caso de incidentes de segurança. Teste constantemente seus planos de recuperação para garantir que eles funcionarão no momento em que precisarem ser aplicados.
  • Registros de eventos: Desenvolva constantemente o monitoramento dos registros do Postgres em busca de algo suspeito, fora do comum, e atue nessas correções o quanto antes. Busque identificar comportamentos fora do padrão, erros que começaram a ocorrer numa frequência fora do convencional.
  • Treine pessoas: Planeje treinamentos e mantenha seu time sempre atualizado, promovendo a conscientização sobre as práticas de segurança e destacando o valor dos dados para a sua empresa.

Responsabilidade Compartilhada:

Lembre-se de que a segurança cibernética é uma responsabilidade compartilhada. Tanto os administradores do PostgreSQL quanto os usuários finais desempenham um papel essencial na manutenção de um ambiente seguro. À medida que continuamos a utilizar o PostgreSQL como nossa escolha de sistema de gerenciamento de banco de dados, é essencial que também façamos da segurança cibernética uma prioridade

O Computer Security Day nos lembra que a segurança de nossos dados no PostgreSQL é uma tarefa constante. Proteger nosso mundo digital é um investimento valioso para o futuro de nossas operações de banco de dados. Nunca subestime o valor das medidas de segurança cibernética eficazes, pois elas podem ajudar a manter os dados seguros e a garantir o desempenho confiável do seu Banco de Dados PostgreSQL.

Se você precisar de ajuda para avaliar a segurança do seu ambiente e promover melhorias, conte conosco. Temos um time multidisciplinar preparado, incluindo uma engenharia dedicada com anos de experiência no uso do PostgreSQL.

Quero avaliar meu ambiente PostgreSQL

Quero falar com a Timbira

Protegendo seu Patrimônio Digital: quanto custa não ter um backup?

By Institucional No Comments

No universo empresarial, a informação é poder. Cada dado, transação e histórico representam um capital valioso que impulsiona o sucesso dos negócios. Mas, imagine um cenário onde todo esse patrimônio digital, construído com esforço e dedicação, desaparece em um instante. Não é apenas uma hipótese distante, é uma realidade dura que empresas podem enfrentar quando não investem em uma estratégia de backup robusta.

Armazenamento, segurança de dados e backup são assuntos muito sérios. Seja qual for o tamanho da empresa, é necessário existir um plano para manter os dados seguros e diminuir o risco. Buscar hospedagens seguras e sigilosas e estar atento aos processos de backup são práticas que garantem a continuidade de um negócio em cenários de crise.

Neste artigo, vamos explorar os custos implícitos de não investir em backups adequados, desde a quebra de confiança com os clientes até as implicações legais. Mais importante ainda, oferecemos insights sobre como uma abordagem proativa pode resguardar sua empresa e proteger seu futuro digital. Vamos adentrar ao mundo vital da segurança de dados e entender por que o backup é mais do que uma precaução – é um alicerce essencial para um futuro empresarial próspero.

Consequências da Perda de Dados

O que acontece com a sua empresa se todos os seus dados forem perdidos? Todas as vendas em andamento, todos os cadastros de clientes, todos os produtos cadastrados… Perder dados e não ter backup é uma dor de cabeça que negócio algum quer passar.

Por aqui, já testemunhamos situações em que uma falha de hardware resultou na perda completa do banco de dados, sem a existência de um backup, o que culminou na perda de dados do cliente. Também enfrentamos problemas de corrupção de dados e estrutura no PostgreSQL, contando apenas com um backup em formato de dump. Felizmente, o dump era do dia anterior e a perda foi minimizada. Além disso, houve uma situação de atendimento emergencial às vésperas do Natal, quando o banco de dados estava corrompido e irreparável (o backup não pôde ser restaurado). Nesse caso, conseguimos recuperar os dados de alguns dias antes. Em todos esses cenários, uma política de backup e restauração eficaz teria feito uma diferença significativa.

A perda de dados vai além de uma simples ocorrência técnica; é uma potencial ameaça à reputação, à continuidade e, em última instância, à própria existência da empresa. A perda de informações importantes pode se transformar em um arriscado problema para gestores e líderes de equipes. Você consegue imaginar o custo desses cenários?

1) Custos Financeiros Diretos

Se informações importantes para o funcionamento da empresa se perdem, o risco é de parada total. Não estamos falando apenas de números no balanço. Estamos falando do pulso financeiro da sua empresa. E, nesse cenário, a perda de dados não é apenas uma questão de perder informações; é uma pancada nos seus lucros. Imagine a paralisação das operações, a perda de receita e até mesmo a falência em casos extremos. No mundo acelerado dos negócios, onde cada segundo conta, qualquer interrupção pode gerar um impacto significativo. Os custos diretos dessa falha podem ser devastadores.

2) Quebra de Confiança e Danos à Imagem

Imagine um baque forte na relação de confiança com seus clientes e parceiros comerciais. A perda de dados, mesmo sob esforços contínuos, pode abalar a confiança que sua empresa tão cuidadosamente cultivou. Não é apenas uma preocupação financeira, é uma questão de reputação. Afinal, no cenário competitivo atual, um deslize pode enviar seus clientes diretamente para as portas da concorrência, em busca de um abrigo mais seguro e confiável.

3) Questões Legais

A perda ou vazamento de informações sensíveis podem levar a implicações legais sérias. Dependendo da natureza dos dados perdidos, a empresa pode enfrentar ações judiciais e ser responsabilizada por danos financeiros. Se informações financeiras de clientes forem perdidas, a empresa pode enfrentar processos judiciais e multas regulatórias. Atualmente está em vigência no Brasil a Lei Geral de Proteção de Dados (LGPD), que estipula regramentos para o trato e finalidade dos dados coletados.  Descumprir essas normas pode resultar em processos judiciais e multas consideráveis. Proteger os dados não é apenas um imperativo ético, é uma necessidade legal.

4) Dificuldades na Recuperação

Recuperar dados perdidos é como tentar juntar os pedaços de um quebra-cabeça complexo. É uma corrida contra o tempo e a incerteza. Muitas vezes, pode ser necessário fazer a contratação emergencial de especialistas em recuperação de dados, compra de equipamentos especializados, além de um grande investimento de tempo. E mesmo que os dados possam ser recuperados, o processo pode levar dias ou semanas, deixando a empresa em tempo de inatividade e atrapalhando as operações. Cada momento perdido pode custar caro. A recuperação é uma batalha, e às vezes, infelizmente, pode não trazer de volta tudo o que se deseja. A precaução é a chave para evitar esse cenário desafiador.

A Importância do Backup Adequado

Em um mundo imperfeito, onde contratempos são inevitáveis, ter uma arquitetura robusta para a segurança de seus dados é essencial. Isso implica não apenas na capacidade de prevenir a perda de dados, mas de recuperar seu ambiente até o ponto de falha. Um dos métodos de backup mais utilizados é o backup com recuperação em um ponto no tempo, conhecido como PITR (point in time recovery), associado a uma estrutura de alta disponibilidade que garante a segurança de suas informações em níveis de serviço. Sabemos que manter uma arquitetura desse calibre envolve custos, mas vale a pergunta: quanto custaria perder tudo?

Backup com Recuperação em um Ponto no Tempo (PITR)

Imagine poder retroceder no tempo e resgatar seus dados até um momento específico. Essa capacidade é fundamental para minimizar perdas em caso de falha. Para situações em que um backup completo não é necessário e nem todas as informações são críticas para a continuidade do negócio, ferramentas como pg_dump (cópia lógica) podem ser utilizadas. Embora um backup completo possa ser dispendioso, o mínimo que se pode fazer para garantir a integridade do modelo de negócio e a saúde do banco de dados é possuir um PITR eficaz.

Estrutura de Alta Disponibilidade

A chave para manter suas operações em andamento, sem impactos negativos, mesmo diante de falhas, é uma infraestrutura de alta disponibilidade. Essa estrutura assegura um backup em nível de serviço, proporcionando flexibilidade e resiliência. Investir na Cloud para gerenciar sua base de dados pode ser uma opção econômica, reduzindo custos em energia elétrica e infraestrutura de equipamentos, além de oferecer planos mensais adaptáveis ao seu orçamento, pagando apenas pelo espaço utilizado.

O Custo de Não Investir em Backup

Seja sua base de dados híbrida ou on-premise, já vimos que negligenciar investimentos em sistemas de backup e manter cópias atualizadas dos dados pode resultar em custos exorbitantes. A perda de dados pode impactar a reputação da empresa, sua receita e, em última instância, sua própria existência.

Investir em sistemas de backup e manter uma estrutura de segurança de dados vai além de uma despesa; é um investimento vital para a continuidade dos negócios. A perda de dados não é apenas um contratempo técnico, mas sim uma ameaça real à integridade e sobrevivência da empresa. Portanto, a resposta à pergunta “Quanto custa não ter um backup?” é simples: pode custar tudo.

Se você precisa de ajuda no processo de planejamento, organização e implementação de um backup sólido e eficaz, entre em contato com nosso time de atendimento. O futuro de sua empresa pode depender disso.

Quero avaliar meu ambiente PostgreSQL

Entre em contato pelo WhatsApp

Seu ambiente PostgreSQL está preparado para datas comemorativas importantes?

By Institucional No Comments

Alguns eventos são ótimas oportunidades para empresas consolidarem sua marca e aumentarem seu ticket médio. A Black Friday e o Dia Sem Imposto são datas que movimentam o comércio, e, por isso, aumentam a quantidade de acessos a aplicações e a bases de dados. Seu ambiente Postgres está preparado?

Em um levantamento feito com os clientes da Timbira, foi constatado que, para a maioria das empresas, o evento mais importante do ano é a Black Friday, que ocorre ao final do mês de novembro. Algumas empresas aproveitam para fazer a promoção no mês inteiro, a chamada “Black November”. Em seguida na lista de eventos importantes também temos Natal, Ano Novo e Cyber Monday. 

Esses eventos aumentam as demandas de acessos no banco de dados e, por consequência, o volume de transações. Isso pode gerar grandes dores de cabeça para as equipes que não se preparam previamente. 

Separamos algumas situações comuns que podem acontecer durante estes períodos e sugerimos algumas ações que podem ajudar a diminuir riscos.

1) Backup: O backup da base de dados é essencial porque ajuda a prevenir a perda de dados no caso de uma falha no sistema, erro humano ou ataque cibernético. Um exemplo foi a situação que aconteceu em 11 de setembro de 2001, onde muitas empresas que atuavam nas Torres Gêmeas tinham site backup, entretanto estavam localizados na outra torre ou em áreas afetadas pela destruição nas proximidades. Essas organizações perderam os dois sites e toda sua informação. Do ponto de vista da informação, isso afetou não só a vida de inúmeros clientes que dependiam desses dados, como também a continuidade do negócio de muitas empresas. A partir desse evento, toda a política de segurança cibernética foi repensada e ganhou força o uso das clouds

Um backup bem-sucedido permite a recuperação e restauração rápida dos dados, minimizando assim o tempo de inatividade e a interrupção das atividades de negócios. Investir em sistemas de backup e manter cópias atualizadas dos dados é fundamental para proteger a integridade da empresa e garantir sua continuidade. Afinal, a perda de dados pode ter consequências graves, podendo impactar sua assistência, receita e até mesmo a sua existência. Já imaginou se amanhã seu banco de dados some? O que acontece com a sua empresa?

2) Resiliência: Um risco muito comum é o serviço de banco de dados não suportar um número excessivo de acessos simultâneos. E as causas que podem gerar indisponibilidade em situações como esta são inúmeras: podem ser ajustes finos que não foram feitos no PostgreSQL, uma query mal estruturada, um sistema operacional desatualizado (assim como o próprio PG) e até mesmo problemas de cluster. Para garantir que a sua base de dados tenha resiliência, vários aspectos devem ser analisados e alinhados, como o sistema de backup (pode ser cloud, híbrido, on-premise), questões de acesso à Internet (se o sistema for on-premise é indicado duas empresas de telefonia acessíveis, assim como um sistema de blackout e, se possível, uma cópia em nuvem), questões de infraestrutura de redes, entre outros.

Uma dica bacana para quem não sabe por onde começar é fazer um trabalho de análise e monitoramento do ambiente PostgreSQL. Assim será possível aplicar melhorias como  ajustes de configurações de banco, melhoria em consultas lentas, identificar necessidade de índices que ajudam no desempenho, entre outras situações que podem deixar seu banco rodando muito melhor.

3) Segurança: O fator segurança sempre deve ser levado em consideração, tanto em relação a acessos internos quanto externos. Os níveis de segurança devem ser tratados em camadas, conforme o modelo de negócio de cada cliente. Muitos centralizam o controle de quem acessa a base de dados através de um “superusuário administrador”. Não é incomum, no entanto, vazar informações e ocorrer a exposição de dados sensíveis. É importante avaliar quem deve ter acesso no seu time, o responsável em monitorar esses acessos e a possibilidade de rastrear os acessos para minimizar o risco de erros.

Independentemente da estratégia adotada, a Lei Geral de Proteção de Dados (LGPD), promulgada em 2018, defende vários aspectos da segurança e o trato com as informações coletadas de terceiros. O vazamento de dados confidenciais de clientes podem gerar multas milionárias, processos e desgaste da imagem e credibilidade da empresa. A maioria das empresas já exigem adequações à LGPD em seus contratos. Portanto, é fundamental se pensar na segurança da informação em vários níveis. 

4) Consultas Lentas: Um dos problemas mais comuns quando falamos em banco de dados é lentidão. Não é novidade que isso pode ser causado por uma série de fatores, desde mal configuração do PostgreSQL, um mal planejamento das ferramentas de extensão para uso de tabelas, falta de índices, consultas mal escritas, um cluster que não suporta o número de acessos, entre outros. Em muitos casos, torna-se desafiador encontrar e solucionar problemas de lentidão.

Existem algumas ferramentas e métodos de investigação que ajudam na análise e melhorias de consultas existentes ou mesmo no desenvolvimento de novas consultas. O primeiro passo nesse desafio é encontrar ferramentas que ajudem a apontar as piores consultas, aquelas que são as principais ofensoras do desempenho. 

Uma boa ferramenta é a extensão pg_stat_statements, que faz parte do conjunto de módulos adicionais que vem com o Postgres. Com uma simples instalação do pacote contrib do PostgreSQL e um CREATE EXTENSION, esta extensão já começa a apresentar seu valor. Você pode conferir uma lista das consultas que mais executam, o tempo de execução dessas consultas, quantas vezes cada uma executou e, em versões mais recentes, até mesmo o quanto cada uma consumiu de recursos de escrita e leitura. Acompanhar essas informações e avaliar de forma frequente as consultas listadas por essa ferramenta é uma boa abordagem para identificar e atuar na melhoria destas consultas.

5) Inchaço de tabelas: O inchaço de tabelas é outro problema que impacta diretamente na performance do banco de dados. Uma tabela inchada desperdiça espaço em disco, eleva o tempo de restore de um backup físico, consome mais memória  e torna as consultas mais lentas. 

Para controlar o inchaço e garantir melhor desempenho do seu banco de dados, o postgreSQL possui um processo chamado autovacuum. Ele é responsável por varrer todas as tabelas e, com base em parametrizações, identificar quais precisam ser limpas. Durante a limpeza, ele marca o registro “morto” como reutilizável e atualiza as estatísticas do objeto, tornando o planejador mais eficiente na hora de montar um plano para executar consultas. A configuração padrão atende de forma satisfatória a pequenos ambientes.

No entanto, em ambientes críticos e de alto volume transacional, é necessário otimizar essa configuração para que ele seja mais eficaz, garantindo um melhor desempenho para o seu ambiente. Em alguns casos, mesmo com o autovacuum otimizado, pode ocorrer inchaço das tabelas e índices. Para garantir que o ambiente esteja saudável, é necessário monitorar e identificar objetos que precisam de manutenção e, por fim, fazer uso do pg_repack para eliminar o inchaço dos objetos. O pg_repack é muito útil, pois possui o mínimo de bloqueio possível e garante a limpeza das tabelas e índices sem gerar indisponibilidade do banco de dados. 

O melhor conselho que podemos dar é que você invista em um planejamento prévio para o seu ambiente PostgreSQL, não só para datas importantes, mas com a visão de futuro de crescimento e de sustentabilidade do seu ambiente. Assim seu negócio, suas vendas e sua marca não sofrem com sobrecarga, instabilidades e gastos não previstos com atendimentos emergenciais. E, se precisar de ajuda, podemos ser seus parceiros para analisar seu ambiente e promover melhorias com nossa metodologia única de Health Check.

Quero avaliar meu ambiente PostgreSQL.
Fale com a gente pelo WhatsApp.

Qual a diferença entre Body Shop, Outsourcing e Consultoria?

By Institucional No Comments

Algumas empresas não possuem a expertise necessária para a resolução de determinados assuntos. Neste cenário onde falta mão de obra qualificada, pode ser vantajoso pensar na contratação de profissionais com conhecimento específico, para dar apoio à equipe. Algumas modalidades, como Outsourcing, Body Shop e Consultoria, são opções interessantes e que diferem do modelo convencional de contratação. Neste post você conhecerá um pouco mais sobre cada um desses modelos.  

O que é Body Shop?

O modelo Body Shop é conhecido na área da tecnologia como uma terceirização de profissionais externos ao time da empresa. Isso significa que os profissionais estarão sob a gestão e backlog da empresa contratante durante o tempo determinado em contrato. No entanto, não há vínculo empregatício com quem os contrata. Em outras palavras, é como um aluguel da mão de obra que a contratante necessita no momento.

É ideal para atividades pontuais, uma vez que os contratos possuem prazos bem definidos. Na prática, a empresa contrata apenas a mão de obra com habilidades específicas, mas não conta com toda a organização que uma área (ou time) precisa.

O que é Outsourcing?

O Outsourcing também é uma forma de terceirização de serviços. Dentro desta modalidade o foco é uma parceria da contratante com empresas terceirizadas e especializadas nos serviços que são ausentes dentro de casa. De forma simples, uma empresa contrata uma outra empresa para complementar seus serviços a um custo menor e podendo ter maior qualidade. 

Ao contrário do Body Shop, os contratos de outsourcing têm escopo de trabalho aberto. Nesta modalidade, todo um time é contratado, sendo da empresa contratada a responsabilidade pela gestão das pessoas envolvidas.

O que é Consultoria?

Nesta modalidade a empresa contratante também pode contar com empresas terceirizadas e especializadas, que além de fornecer mão de obra especializada, em determinados assuntos ausentes dentro de casa, farão a gestão de todos os processos.

A distinção da Consultoria se dá por ser um serviço prestado por especialistas, mas também pelo fato de existir um time envolvido em todo o projeto. Uma consultoria visa ajudar seus clientes a entender como usar recursos e serviços de maneira mais eficiente e eficaz, a fim de reduzir custos no futuro, aumentar a eficiência e permitir que a empresa se concentre em suas atividades-chave para atingir os objetivos do negócio da melhor forma possível. Isso pode incluir estratégias de segurança de dados, arquitetura de sistemas, otimização de desempenho de banco de dados e muito mais.

Uma vantagem do modelo de Consultoria é que os consultores contratados podem fornecer orientação estratégica, ajudar a desenvolver projetos específicos, treinar funcionários e também oferecer suporte técnico.

Qual modelo escolher?

Bom, agora que você já sabe resumidamente como cada modelo funciona, você deve estar se perguntando qual a melhor opção para o seu negócio, certo? 

Achamos importante frisar que cada caso é um caso, então a melhor opção depende muito do que a empresa contratante está efetivamente precisando no momento. Entendemos que optar por modelos de consultoria ou outsourcing acabam por ser as melhores alternativas para a  maioria dos cenários. 

Em ambos os modelos, cabe a você apenas contratar e passar as demandas, já que todo o resto fica por conta da empresa contratada. O outsourcing é mais voltado para a execução de tarefas específicas, ou seja o modo ‘’mão na massa’’. Enquanto a consultoria, além de colocar a mão na massa, vai ajudar uma empresa a entender como usar recursos de forma mais efetiva e pontuar formas de trabalho, para que no futuro essa empresa seja cada vez mais independente neste sentido. 

Já deu para ver que apesar de parecerem semelhantes, essas modalidades têm suas diferenças não é mesmo? Mas se se você analisar bem, com certeza saberá o que é melhor para a sua empresa!

Você pode contar com a Timbira!

A contratação de um time de apoio de forma remota, pode gerar uma certa insegurança, principalmente porque os maiores ativos de uma empresa são tempo e dados. Aqui na Timbira entendemos isto e temos todo o cuidado para que a parceria com nossos clientes seja sempre estável e sem surpresas. 

Procuramos manter uma comunicação clara e transparente, por isso os clientes sempre terão um ponto focal no nosso time de Engenharia, onde podem trazer suas demandas e fazer o plano de ações juntos. Mas também vão contar com a nossa Gerente de Sucesso do Cliente, que trabalha na área do Relacionamento com o Cliente para garantir que haja proximidade constante, sem barreiras de comunicação entre os times. Somos uma empresa de inteligência em PostgreSQL, nesse sentido você pode contar conosco para promover sustentabilidade ao seu ambiente, dando apoio estratégico, tático e operacional e mais autonomia para a visão do seu negócio. Como diz Steve Jobs, “Concentre-se naquilo que você é bom e delegue todo o resto”.

Se você está precisando de  profissionais especializados em PostgreSQL, entre em contato conosco!

>> Nos envie uma mensagem no Whatsapp! <<