Skip to main content

PGConf Brasil 2022 – DBA Balboa: Como a resiliência de Rocky pode impactar na sua jornada? Por Emanuel Araujo Carneiro

By Institucional No Comments

Pensando sobre o ecossistema de Rocky Balboa (Sylvester Stallone), seja você um amante ou não dos filmes, é inegável que a série traz um drama especial com fases que sustentam e evoluem uma necessidade intrínseca muitas vezes identificada tardiamente: a resiliência.

Na PGConf.Brasil 2022, Emanuel Araujo consultor da Timbira, explicou que a resiliência nada mais é do que nossa capacidade de adaptação em meio a situações complicadas ou adversas. Durante sua palestra, ele definiu a adaptação como um equilíbrio físico e psicológico diante das adversidades cotidianas. E também que, embora não tenhamos controle sobre todos os aspectos de nossas vidas e eventos aleatórios que nos acometem, temos o controle sobre o modo como reagimos a essas situações.

Você tem poder sobre sua mente – não sobre eventos externos. Perceba isso e você encontrará sua força” (Marco Aurélio).

Emanuel destacou que Marco Aurélio já nos alertava sobre a importância de lidarmos com nossos pensamentos e não nos deixarmos abater por eventos externos. A trajetória de Rocky exemplifica como um conjunto de experiências pode fortalecer a resiliência e o amadurecimento pessoal ao longo dos filmes.

Traçando um paralelo entre os quatro primeiros filmes da série, e os quadrantes de maturidade, Emanuel explicou como funciona esse modelo teórico usado para descrever os estágios de desenvolvimento de habilidades, competências ou maturidade em diversos contextos, sejam pessoais, profissionais ou organizacionais.

Quadrante M1

No início, Rocky é um iniciante desajeitado e canhoto, um estrangeiro no mundo do boxe, mas de bom coração (M1). Ele não tem capacidade técnica e precisa apenas executar sem pensar muito. O bom coração de Rocky reflete suas soft skills, que se desenvolvem ao longo da série, acompanhando sua evolução.

Quadrante M2

Seguindo o roteiro, depois de empatar na sua luta final, podemos dizer que Rocky passou de fase. Chegando então ao quadrante M2, já possuindo experiência mínima, é bem visto pelo público, ganhou confiança e agora precisa não apenas executar, mas adquirir a competência de pensar antes de agir, ou seja, planejar sua execução. Com a nova grande chance que tem, seu treino se torna mais customizado e sua responsabilidade aumenta a cada novo dia. O planejamento da nova estratégia de luta foi decisivo e ao final o tornou campeão mundial de boxe.

Quadrante M3

No terceiro quadrante, surgem as armadilhas do nível 3 de maturidade: o excesso de confiança, conforto e a incapacidade de pensar em riscos. Um bom momento para reparar que em momentos da vida podemos estar no topo e em seguida no chão do ringue. Rocky se vê em um buraco, pois além de perder vergonhosamente o título mundial, perde seu treinador Mickey (Burgess Meredith), que morreu de ataque cardíaco antes da luta com Clubber Lang (Mr. T) iniciar. Existem grandes batalhas na vida e perder entes queridos é uma delas. A culpa de não poder ter feito mais, a dependência de não poder contar com determinadas pessoas, passa dia após dia em nossas mentes, nos testando ou nos preparando. No terceiro nível de maturidade ocorrem situações onde precisamos saber muito bem quem somos, para não assumirmos o que não podemos, achando que somos invencíveis, até nos depararmos com uma palavrinha chamada medo.

O medo é diferente do pânico 

Medo é estado de alerta, é um sentimento que nos dá a capacidade de reagir, de planejar, de ter o cuidado com o que estamos fazendo e com as situações em que nos encontramos. Foi justamente o reconhecimento disso e o apoio de sua esposa Adrian (Talia Shire) que fizeram Rocky mudar o seu posicionamento e voltar a treinar. Agora com seu ex-adversário, e então amigo, Apollo (Carl Weathers), Rocky possui o suporte necessário para desenvolver um planejamento, uma estratégia de luta com disciplina e alegria de estar fazendo o que gosta com as pessoas certas ao seu lado, um verdadeiro time, para no final voltar a ser o campeão mundial de boxe.

Quadrante M4

No quadrante M4, Rocky enfrenta uma nova adversidade: a morte de Apollo Creed. Depois de ter passado por várias situações da vida, a morte de Mickie, o topo, a família, o fracasso, o medo, com o nível de resiliência alto, Rocky passa por uma nova fase. Em meio a um contexto de rivalidade entre EUA e URSS, o que deveria ser uma luta de exibição acaba com a morte de seu amigo e treinador, Apollo. A grande diferença do quadrante M4 é que nosso nível de resiliência está mais robusto, preenchido de experiências e sentimentos já conhecidos, e com isso temos a capacidade de adaptação aos novos eventos, reconhecê-los, resolvê-los ou tomar decisões com muito mais controle. 

A cena em que Rocky está dirigindo seu carro após o enterro de Apollo, mostra a capacidade de refletirmos sobre nosso passado, erros, acertos e sentimentos. O filme que passa pela cabeça de Rocky mostra exatamente isso. A sua decisão de lutar na URSS, no dia de Natal, em um local completamente adverso, não apenas pelo frio intenso, mas também pela hostilidade que encontrará por ser um lutador americano, demonstra claramente sua evolução dentro da trajetória de maturidade. Rocky compreende a dificuldade que enfrentará e olha para todo o processo através de uma lente de humildade, buscando abrigo no isolamento e focando todos seus esforços em treinar sem ninguém para julgar ou atrapalhar a concentração de seu treino. Consciente do momento que está vivendo ele traz para perto de si aquelas pessoas em quem ele confia plenamente e que lhe dão o suporte necessário para atingir seus objetivos. Todas essas etapas sendo muito bem pensadas, planejadas e com a equipe certa para fazer o trabalho certo, o levaram aos melhores resultados possíveis.

Rocky V

“Rocky 5” fecha com chave de ouro o pilar de liderança espontânea, quando Rocky passa a treinar um jovem potencial, do zero ao título. Isso não seria algo comum aos líderes que transformam empresas? Ser o agente de mudança de sua equipe ou de sua família? Essa continuação podemos deixar para um próximo post.

Processo de Maturidade

Esse ciclo de maturidade representa vários contextos e está representados em cada etapa de nossa vida profissional e pessoal, o exemplo do Rocky Balboa é apenas uma forma de ilustrarmos essa trajetória. Posso ser M1 na cozinha e M4 em programação java, por exemplo. Cada competência, etapa ou contexto evolui através de um processo de maturação que está intrinsecamente ligado às experiências acumuladas ao longo do tempo. Esse processo não apenas fortalece nossa resiliência, como também amplia nossa capacidade de lidar com desafios e adversidades.

Keep calm, reflita e vamos buscar ser melhores do que ontem.

[Quero assistir a palestra completa]

Por que o PostgreSQL é a escolha certa para a Estratégia de Dados da sua empresa?

By Artigos No Comments

A escolha do banco de dados certo é fundamental para o sucesso e a competitividade de uma empresa. Gestores e líderes frequentemente se veem diante da pergunta: “Qual é o melhor banco de dados para minha empresa?”. Nesse contexto, o PostgreSQL se destaca como uma opção confiável, econômica e promissora. Não apenas por oferecer robustez, desempenho e uma política de licenciamento gratuito, mas também por seu crescimento cada dia mais acelerado, se tornando uma escolha inteligente para empresas de diferentes tamanhos e setores.

Vamos explorar as razões pelas quais o Postgres se destaca como uma boa opção a ser avaliada, fornecendo uma visão mais aprofundada sobre seus recursos, extensibilidade e desempenho.

Extensibilidade

O PostgreSQL é conhecido por sua extensibilidade, oferecendo suporte a uma ampla variedade de tipos de dados e recursos avançados. Sua arquitetura altamente extensível permite a criação de tipos de dados personalizados, funções definidas pelo usuário, mecanismos de acesso (índices) e armazenamento (tabelas) customizados,  decodificadores de WAL (Write-ahead Logging) para serem utilizados, por exemplo, em CDC (Change Data Capture), integração com fontes de dados externa por meio de FDW (Foreign Data Wrappers), mudanças de comportamento através de diversos pontos de introspecção (hooks), entre outros diversos recursos que podem ser criados em forma de extensões  e que atendem às necessidades específicas de cada ambiente. Essa extensibilidade do Postgres possibilita às empresas personalizarem o sistema de acordo com suas necessidades específicas, facilitando a adaptação do negócio às mudanças demandadas pelo mercado.

Escalabilidade

À medida que as empresas crescem e seus volumes de dados aumentam, é essencial que o ambiente do banco de dados também esteja preparado para crescer. Uma das principais vantagens do PostgreSQL é que ele possibilita a escalabilidade horizontal através do uso de réplicas, aprimorando a distribuição do processamento de grandes volumes de dados. Sendo um software de código aberto, o Postgres não possui custos de licenciamento nem restrições de uso em múltiplos processadores e, como não há um custo com licenciamento, o investimento pode ser direcionado para outros recursos, como hardware por exemplo, ou ainda gerar uma economia direta de custos.

Comunidade Ativa

Com uma comunidade ativa e engajada de desenvolvedores, contribuidores e usuários em todo o mundo, é possível promover a inovação contínua e o aprimoramento do PostgreSQL, fornecendo atualizações regulares, correções de bugs e novos recursos. Além disso, a comunidade oferece suporte técnico gratuito por meio de fóruns online, listas de discussão e grupos de usuários locais, garantindo que as empresas sempre tenham acesso ao conhecimento e à experiência, necessários para resolver problemas e otimizar o desempenho nos seus ambientes Postgres.

“PostgreSQL Para Tudo”

O PostgreSQL alcançou um nível de maturidade que supera a popularidade de muitos bancos de dados pagos. Além de ser um banco de dados relacional, o Postgres oferece uma ampla variedade de recursos, tornando-se um hub central para diversas necessidades. Sendo o banco de dados mais extensível no momento, ele possibilita diversos processos empresariais devido a sua capacidade de adaptação a uma variedade extensa de cenários. Isso tem sido tão significativo que cada vez mais projetos são desenvolvidos através do PostgreSQL, demonstrando sua influência e versatilidade. 

Por que escolher o Postgres para tudo? Porque, na maioria dos casos, ele oferece tudo o que é necessário, evitando a complexidade desnecessária de adotar ou adquirir múltiplas soluções. 

Com um enorme ecossistema e uma variedade de extensões disponíveis, o PostgreSQL já possui soluções para muitos dos problemas comuns enfrentados no dia a dia das empresas. A comunidade interage de maneira construtiva formando extensões oficiais e não oficiais para a resolução de problemas que, frequentemente, são resolvidos em outros bancos com a necessidade de utilizar outras aplicações, por exemplo. 

Uma boa observação a ser feita é que não estamos dizendo para descartar outras tecnologias, mas sim destacando a capacidade do PostgreSQL de ser a solução central em muitos casos.

Política de Licenciamento Gratuito

A escolha entre contratar um banco de dados pago para ter suporte ou optar pelo Postgres e contar com a possibilidade de contratar serviços especializados de consultoria, é uma dúvida bastante comum que depende muito das necessidades e recursos específicos da empresa. 

Os bancos de dados pagos geralmente incluem um custo inicial mais alto devido às taxas de licenciamento e suporte técnico direto do fornecedor. À primeira vista, isso pode parecer vantajoso e sugerir que exista a segurança de um suporte rápido e confiável em caso de necessidade. No entanto, esse tipo de suporte pode ser terceirizado e a qualidade do serviço pode mudar significativamente ou contar com tempos de resposta mais lentos. Além disso, para esse tipo de banco de dados podem haver custos adicionais para atualizações, módulos extras, suporte premium, e manutenção.

O PostgreSQL é gratuito para uso, o que pode resultar em economias significativas, especialmente para empresas com orçamentos mais limitados. Para empresas que optam pelo Postgres, há a possibilidade de contratar serviços especializados de consultoria, o que  pode ser mais econômico a longo prazo. Claro que, para atingir esse objetivo, deve-se levar em conta questões além dos custos da consultoria, como a preocupação da empresa contratada em manter a sustentabilidade do ambiente Postgres do contratante e o quanto a empresa trabalha em prol da autonomia dos seus clientes, levando à uma independência futura.

Conte conosco!

Oferecemos consultoria especializada em PostgreSQL para ajudar empresas a encontrarem um crescimento tecnológico sustentável através de uma combinação de expertise técnica e visão de negócios, que vai do panorama estratégico até a implementação operacional.

[>> Quero falar com a Timbira!]

Por que Postgres? Karin Keller – PGConf.Brasil 2022

By Palestras No Comments

Na PGConf.Brasil 2022, Karin Keller, CEO da Timbira, falou um pouco sobre as vantagens da adoção do PostgreSQL por empresas. Baseada em sua experiência e no potencial de crescimento do sistema, ela destacou a importância de ir além das considerações técnicas, focando na mudança de papéis dos envolvidos, no valor do conhecimento compartilhado, nos papéis comunitários bem definidos e na necessidade de abraçar a mudança.

Também salientou sobre a facilidade de inserção que o PostgreSQL traz para novos profissionais, levando em consideração suas barreiras mínimas de entrada, comunidade robusta e escalabilidade. Abaixo estão alguns tópicos dignos de destaque dessa palestra.

Olhando além do técnico: O futuro do PostgreSQL

Por que as empresas devem adotar o PostgreSQL? Explorando a sua própria jornada com o sistema de gerenciamento de banco de dados de código aberto e seu potencial de crescimento, Karin destaca a importância de não se restringir a uma visão técnica estreita, mas entender as implicações futuras da adoção do PostgreSQL para o crescimento sustentável dos negócios.

Ela apresenta quatro aspectos desse desenvolvimento: a mudança de papéis de produtores e consumidores, o valor crescente do conhecimento compartilhado, a importância de papéis claramente definidos dentro da comunidade e a necessidade de abraçar a mudança e a inovação.

1- Mudança de papéis de produtores e consumidores: O PostgreSQL facilita uma transição nos papéis tradicionais, incentivando uma abordagem mais colaborativa.

2- Valor crescente do conhecimento compartilhado: O compartilhamento de conhecimento impulsiona a inovação e o crescimento dentro da comunidade PostgreSQL.

3- Papéis comunitários claros: Ter papéis bem definidos garante uma colaboração eficaz e uma evolução contínua do sistema.

4- Necessidade de abraçar a mudança: Reconhecer e abraçar a mudança e a inovação são essenciais para o sucesso a longo prazo.

O Futuro é distribuído

O PostgreSQL é uma escolha atraente para novos profissionais. Karin destaca que as barreiras de entrada para o PostgreSQL são mínimas, sem problemas de licenciamento ou restrições corporativas. O poder de colaboração na comunidade PostgreSQL permite o compartilhamento de problemas e soluções, impulsionando tanto o desenvolvimento de novos recursos quanto a reutilização dos já existentes. Essa abordagem, combinada com a crescente demanda por gestão e análise de dados, torna o PostgreSQL um ativo valioso para as empresas.

Ao colaborar com a comunidade, as empresas economizam recursos e tempo, enquanto se beneficiam da constante inovação. Além disso, o acesso a mais dados e a descentralização do conhecimento contribuem para o crescimento e a importância contínua do PostgreSQL.

O PostgreSQL é uma escolha popular e consistente para muitos desenvolvedores

A pesquisa Stack Overflow de 2022 revelou que o PostgreSQL é o segundo banco de dados mais amado e o terceiro mais temido, sendo uma escolha popular entre os desenvolvedores profissionais. Com a crescente tendência para o software de código aberto e o aumento das empresas que oferecem consultoria e suporte, o crescimento consistente e a comunidade engajada do PostgreSQL o tornam uma escolha perfeita. A consistência nos lançamentos e suporte da comunidade PostgreSQL cria um ambiente colaborativo e não competitivo.

Abertura e colaboração: Impulsionadores do progresso

À medida que o conhecimento é compartilhado, mais pessoas contribuem, fortalecendo a comunidade e construindo um futuro sustentável. Essa mentalidade aberta promove a mudança da competição para a colaboração e do acúmulo para o compartilhamento de conhecimento. Os novos modelos de negócios estão cada vez mais alinhados a esses valores, reconhecendo as limitações da competição exclusiva e o potencial para maior inovação.

O Jeito Timbira de Fazer as Coisas

Valores como comunidade, liberdade e qualidade estão sendo cada vez mais valorizados, e as empresas estão adotando esses modelos para promover o crescimento e alcançar seus objetivos de forma mais eficaz. Por fim, Karin enfatiza a importância de considerar estes valores como um filtro para todas as ações, garantindo que levem ao seu propósito.

 

[Assista a palestra completa]

Automatização de tarefas repetitivas no PostgreSQL: agilizando operações e reduzindo erros

By Institucional No Comments

Em um ambiente dinâmico de gerenciamento de banco de dados PostgreSQL, a eficiência operacional é muito importante para garantir a estabilidade e o desempenho consistentes. Uma abordagem fundamental para alcançar esse objetivo é a automatização de tarefas repetitivas, um processo que não apenas economiza tempo, mas também minimiza a probabilidade de erros humanos.

Por que automatizar?

Tarefas operacionais, como backup, otimização de índices e monitoramento, frequentemente consomem recursos significativos, exigindo intervenção manual frequente. A automação dessas tarefas não apenas libera a equipe para se concentrar em atividades mais estratégicas, mas também reduz a margem de erro humano, associada a intervenções manuais repetitivas. Como, por exemplo:

1- Backups: o time que administra o banco de dados pode esquecer de fazer backups regularmente, o que pode resultar na perda de dados em caso de falha no sistema.

2- Scripts SQL: ao executar manualmente scripts SQL para tarefas como limpeza de dados antigos ou otimização de consultas, a pessoa que está digitando os comandos, pode cometer erros de sintaxe que geram retrabalho ou mesmo erros de lógica, que podem causar problemas de integridade.

3- Comandos incorretos: ao executar rotineiramente comandos manuais, uma pessoa operando o banco pode executar comandos incorretos por engano. Um exemplo é executar um expurgo manual de dados e esquecer de utilizar algum filtro ou mesmo colocar um “;” (ponto-e-vírgula) onde não deveria e, com isso, excluir dados importantes em vez de dados obsoletos, durante esta limpeza de dados antigos.

4- Otimizações regulares: sem automatização, o time que administra o banco de dados pode esquecer de realizar otimizações regulares, levando à degradação do desempenho ao longo do tempo.

5- Monitorar o desempenho: sem ferramentas de automação para coletar dados, monitorar o desempenho do banco de dados e emitir notificações, o time que opera o banco o ambiente pode não identificar problemas de desempenho até que eles afetem negativamente os usuários finais.

Como automatizar?

Para efetuar tarefas repetitivas — tais como a realização de backups, a exclusão de dados obsoletos e a otimização de objetos no banco — uma prática comum de automação no PostgreSQL envolve a criação de scripts utilizando linguagens como Bash ou Python, e, em alguns casos, até mesmo PL/pgSQL. 

Abaixo, apresentamos dois exemplos de tarefas usuais e como podemos automatizá-las.

Backups

Os backups constituem uma medida fundamental para proteger os dados contra perdas ou danos. No contexto do PostgreSQL, é possível efetuar backups recorrendo a utilitários como o pg_dump, para backups lógicos, ou pg_basebackup, para backups físicos.

A automatização pode ser feita por meio de scripts ou recorrer a ferramentas de automação e agendamento que permite programar a execução de backups automáticos em momentos específicos. Por exemplo, pode-se elaborar um script configurado para realizar backups diários no período da madrugada, aproveitando a redução da atividade no sistema.

Em sistemas Linux é comum utilizar o utilitário “crontab” que é uma ferramenta disponível utilizada para agendar a execução automática de tarefas em horários específicos. Isso o torna útil para automatizar uma série de operações de manutenção de bancos de dados PostgreSQL, como backups, por exemplo.

Um exemplo prático é que podemos agendar um script que executa o pg_dump ou pg_basebackup para executar automaticamente durante a madrugada. Por exemplo, para um backup diário às 2 AM, uma entrada no crontab pode parecer com isso:

0 2 * * * /caminho/para/script_backup.sh

Já no Windows, você pode utilizar o Agendador de Tarefas que pode ser chamado pelo comando taskschd.msc. A diferença é que, no Windows, você criará um script em um arquivo BAT ou em Power Shell que será executado pelo agendador de tarefas conforme o agendamento configurado.

> Para saber mais sobre crontab 
> Para saber mais sobre o Agendador de Tarefas

Limpeza de dados antigos

Em muitos sistemas, é necessário remover periodicamente dados antigos para manter o banco de dados limpo e otimizado. Isso é importante em bancos de dados com grande volume de dados que podem impactar no desempenho das consultas.
A automatização nestes cenários pode ser feita através de procedures em PL/SQL ou mesmo PL/pgSQL, desenvolvendo mecanismos para identificar e excluir registros com base em critérios de validade ou outros critérios específicos. Essas procedures podem ser agendadas para executarem em intervalos regulares, garantindo que dados obsoletos sejam removidos automaticamente.
Uma vez que você tenha implementado a sua regra em uma procedure no Postgres, você pode utilizar a extensão “pg_cron” para agendar as execuções. Veja o exemplo abaixo onde uma procedure que remove registros criados há mais de 1 ano:

CREATE OR REPLACE PROCEDURE expurgar_dados_antigos()
LANGUAGE sql
AS $$
DELETE FROM registros
WHERE data_criacao < NOW() – INTERVAL ‘1 year’;
$$;

Agora, suponha que este procedimento precise executar diariamente às 3 horas da madrugada. Utilizando o pg_cron podemos criar um agendamento recorrente com um simples comando:

SELECT cron.schedule(‘expurgo’, ‘0 3 * * *’, ‘CALL expurgar_dados_antigos()’);

Caso queira desabilitar este expurgo por algum motivo, você pode utilizar o comando:

SELECT cron.unschedule(‘expurgo’);

> Para saber mais sobre procedures 
> Para saber mais sobre pg_cron

Esses são apenas alguns exemplos para servirem como ponto de partida e podem ser adaptados para suas necessidades.

Ganho de Eficiência e Redução de Riscos

Em resumo, a automatização de tarefas repetitivas no PostgreSQL não é apenas uma prática conveniente, mas uma estratégia essencial para otimizar operações e reduzir erros operacionais. Ao adotar uma abordagem proativa para a gestão de tarefas rotineiras, as equipes de banco de dados podem garantir a estabilidade, eficiência e integridade dos dados, posicionando-se para enfrentar desafios operacionais com confiança.

Se você está buscando otimizar o desempenho e a confiabilidade do seu banco de dados PostgreSQL, a Timbira está aqui para ajudar. Podemos oferecer orientação especializada para automatizar tarefas repetitivas, implementar melhores práticas e garantir que seu banco de dados esteja funcionando de forma eficiente e segura.

[>> Quero falar com a Timbira]

Postgres e Machine Learning – Parte I

By Artigos No Comments

Desde o início dos tempos, a humanidade tem sido fascinada pela ideia de prever o futuro. Do olhar para as estrelas até a interpretação dos sonhos, sempre buscamos maneiras de antecipar o que está por vir. A jornada humana para prever o futuro é uma trama tecida através de séculos, entrelaçando a imaginação literária com marcos científicos.

No universo literário, podemos citar aqui romances de ficção científica, como a série “Foundation” de Isaac Asimov, onde explora-se a “psico-história” [1], uma ciência que prevê o futuro da humanidade. O tema também foi especulado por autores como Arthur C. Clarke e Philip K. Dick, escrevendo sobre os limites da previsão e da realidade.

Já na ciência, essa busca pelo entendimento do futuro encontrou um pilar em Alan Turing, cujas ideias fundamentais sobre computação abriram caminho para o que sabemos hoje sobre processamento de dados. Turing não apenas sonhou com máquinas que poderiam pensar, mas também lançou as bases para que isso se tornasse realidade.
Essa busca por essa nova realidade não apenas moldou nossas histórias e culturas, como também impulsionou o desenvolvimento de uma das mais revolucionárias invenções da nossa era: a inteligência artificial (IA).

Em um mundo em constante mudança e com cada vez mais necessidade de processar dados, tornou-se inevitável organizá-los de modo estruturado e reaproveitável.

A evolução da organização de dados

Com o surgimento dos bancos de dados relacionais na década de 70 a organização estruturada dos dados tornou-se cada vez mais essencial, estabelecendo a base fundamental dos diversos sistemas de informação existentes até os dias atuais.

Nesta mesma época, as principais teorias sobre inteligência artificial estavam sendo elaboradas. Teorias estas que somente nas últimas décadas puderam ser aplicadas em grande escala, principalmente pelo advento de novas tecnologias de processadores e também pela quantidade significativa de dados que atualmente estamos gerando.

O papel dos bancos de dados relacionais

Neste cenário, onde a inteligência artificial espera cada vez mais volumes massivos de dados, bem como formas de armazenamento e processamento cada vez mais sofisticadas, os bancos de dados relacionais enfrentam novos desafios. Algumas questões surgem neste momento:

  • Sendo os bancos de dados relacionais os principais centralizadores das informações que norteiam os processos das organizações, quais recursos eles possuem para apoiar a análise de dados com foco em inteligência artificial?
  • Se já temos uma tecnologia de gerenciamento de bancos de dados madura no ecossistema de nossa organização, até que ponto precisaremos aprender outras tecnologias de gerenciamento de bancos de dados?

Ao longo de uma séries de posts, iniciando com este, embarcaremos em uma jornada pelo desenvolvimento da inteligência artificial e como o PostgreSQL se destaca com sua robustez e extensibilidade, não só por ser um sistema de gerenciamento de dados tradicional, mas uma plataforma para desenvolvimento de soluções.

Explorando o potencial da Inteligência Artificial com PostgreSQL

O Postgres, conhecido por sua robustez e confiabilidade, também se destaca pela sua adaptabilidade. Ele tem evoluído para lidar não só com o volume de dados massivos, mas também com a complexidade crescente desses dados. Tendo como um dos seus principais triunfos a extensibilidade, esta característica permite ao Postgres customização de suas funcionalidades atuais e a expansão de novos recursos para atender às necessidades específicas de diferentes soluções.

O constante avanço das inteligências artificiais generativas e novas formas de aprendizado de máquina (Machine Learning ou ML) está redefinindo o que os gerenciadores de bancos de dados devem oferecer de recursos. Nesse cenário, o Postgres se adapta para suportar não apenas os tipos tradicionais de dados, mas também estruturas mais complexas, como as que são necessárias para os Vector Databases.

Um banco de dados vetorial se especializa em armazenar, pesquisar e manipular vetores de maneira rápida e eficaz, o que o torna ideal para tarefas que exigem análises avançadas e cálculos de similaridade em grandes conjuntos de dados. Os vetores são sequências de números ou representações de dados em um espaço multidimensional e são comumente utilizados em aplicações de aprendizado de máquina e inteligência artificial para representar e comparar características complexas de determinados dados em reconhecimento de imagem ou no processamento de linguagem natural.

Figura 1: Uma ilustração de um espaço vetorial multidimensional contínuo representando frases individuais. Fonte: [2]

Então o Postgres pode ser um banco de dados vetorial também? Tudo indica que sim.

Tal como o Postgres se adaptou às novas tecnologias de estruturas de dados mais dinâmicas, como o JSON, e criou mecanismos para suportar a rápida recuperação de dados neste formato, seja por um armazenamento efetivo como o jsonb, seja pelo recurso de índices avançados como GIN,seu mecanismo de extensibilidade atual permitiu a existência de extensões como a pgvector [3], que surge como um esforço da comunidade Postgres de disponibilizar uma ferramenta que permite armazenar vetores junto com outros tipos de dados em um banco de dados PostgreSQL.

Ampliando as capacidades do Postgres com pgvector

O pgvector é uma extensão open source que concede ao Postgres o suporte ao tipo de dados vetor (vector), permitindo buscas exatas ou aproximadas, utilizando métricas como distância L2, produto interno e distância cosseno. Compatível com qualquer linguagem que possua um cliente Postgres, essa extensão também oferece as vantagens tradicionais do PostgreSQL, incluindo conformidade ACID (Atomicidade, Consistência, Isolamento, Durabilidade), recuperação de pontos específicos no tempo, possibilidade de realizar JOINs e todas as outras funcionalidades avançadas existentes no PostgreSQL.

Extensões como a pgvector e recursos nativos como JSON provam que o PostgreSQL está cada vez mais no centro de uma revolução de dados e de inteligência artificial. Sua evolução consistente e sua capacidade de adaptar-se a um mundo de dados cada vez mais complexo e faminto o tornam um componente indispensável para qualquer empresa que deseja explorar o potencial do aprendizado de máquina. À medida que avançamos, o Postgres não é apenas um SGDB; é um facilitador crucial no caminho para um futuro mais inteligente, sustentável e orientado a dados.

Quer saber mais sobre PostgreSQL, Machine Learning e pgvector? Continue nos acompanhando nesta série que trará conteúdos cheios de insights e conhecimentos práticos sobre o assunto.

Referências

[1] Wikipedia (2024). Psychohistory (fictional science). Link: https://en.wikipedia.org/wiki/Psychohistory_(fictional_science). Acessado em 09/04/2024.

[2] Petra Barančíková, & Ondřej Bojar. (2019). In Search for Linear Relations in Sentence Embedding Spaces. Link: https://arxiv.org/pdf/1910.03375v1.pdf#page=2. Acessado em 08/04/2024.

[3] Andrew Kane (2021). pgvector. Link: https://github.com/pgvector/pgvector. Acessado em 23/03/2024.

Data Recovery e a Matriz BIA na Gestão de Crises em Banco de Dados

By Artigos, Operação No Comments

A base essencial de qualquer empresa reside em seus dados. Desde informações cruciais de clientes, fornecedores e credores até a gestão de estoque, registros financeiros e análise em tempo real, tudo está ligado a um sistema de bancos de dados. Perder informações ou encontrar dificuldades para acessá-las em tempo hábil pode causar grandes dores de cabeça para quem se preocupa com a saúde financeira da empresa.

Neste post, discutiremos sobre Data Recovery e a importância de as empresas adotarem uma política sólida para momentos de crise no banco de dados. Também abordaremos o conceito de Análise de Impacto no Negócio (BIA), uma metodologia de análise e gestão para reduzir riscos nos negócios.

O que é Data Recovery?

Para começar, é importante entender que a recuperação de dados, também conhecida como data recovery, consiste na restauração de informações a partir de cópias de segurança (backups), após a ocorrência de um incidente como erro humano, desastre natural, falha de hardware ou ataques cibernéticos.

Por exemplo, imagine um HD de computador pessoal que caiu no chão. Neste HD estavam todos os trabalhos de conclusão de curso de uma pessoa que, por descuido, não fez uma cópia. A solução neste caso seria chamar um especialista para tentar recuperar esses dados, um trabalho que na melhor das hipóteses levará tempo, trazendo uma enorme dor de cabeça para essa pessoa que pode perder o prazo de entrega do trabalho e na pior das hipóteses precisará começar o trabalho do zero, pois pode ser impossível recuperá-lo. No ambiente corporativo não é diferente, incidentes ocorrem por diversos fatores e o processo de recuperação de dados deve estar inserido dentro de uma política de backup, alinhado com os objetivos do negócio e deve ser validado periodicamente.

BIA (Business Impact Analysis)

Independentemente da origem do problema, esses incidentes resultam em prejuízos para os negócios. Para diminuir o risco e evitar o problema, é possível desenvolver uma análise de riscos do negócio na cadeia produtiva da empresa. Essa análise de riscos é conhecida como BIA (Business Impact Analysis). Trata-se de uma metodologia de gestão que ajuda a identificar e avaliar os processos e sistemas críticos para o funcionamento da empresa, bem como avaliar o impacto financeiro, operacional e de recuperação que poderia resultar na interrupção de negócios.

Ao identificar os impactos que eventos adversos causam, as organizações podem se preparar de forma adequada, minimizando perdas e interrupções nas operações. Além disso, o BIA traz diversos benefícios, como a identificação de processos críticos, o estabelecimento de planos de contingência e a melhoria da tomada de decisão.

Observa-se que um dos pressupostos da Análise de Impacto no Negócio é a existência de dependência entre os processos de uma empresa ou organização. É evidente que alguns processos têm maior relevância do que outros. Portanto, é crucial ter clareza sobre quais são vitais e prioritários durante uma situação emergencial.

Cinco ações que vão te ajudar na construção de uma matriz BIA eficiente

  1. Identificação de processos críticos de negócios: identificar e priorizar os processos de negócios essenciais para a operação da organização.
  2. Avaliação de impacto: envolve uma avaliação dos impactos financeiros, operacionais e de negociação que podem resultar de intermediários nos processos de negócios identificados.
  3. Identificação de requisitos de recuperação: determinar os requisitos de tempo e recursos necessários para recuperar os processos de negócios após uma interrupção.
  4. Desenvolvimento de planos de continuidade de negócios: com base na análise realizada, desenvolva um plano de continuidade de negócios que detalham as ações a serem tomadas para recuperar os processos críticos em diferentes cenários de interrupção.
  5. Teste e revisão: teste regularmente os planos de continuidade de negócios para garantir que eles estejam atualizados e sejam eficazes. Faça revisões periódicas da análise de impacto no negócio para garantir que ela reflita as mudanças na empresa.

Duas métricas importantes que devem ser consideradas

A primeira delas é o Recovery Time Objective (RTO), que se refere ao tempo máximo permitido para restaurar os sistemas, aplicativos e dados após um incidente. Em outras palavras, é o intervalo de tempo que uma organização determina como aceitável para recuperar seus serviços operacionais após uma interrupção. Isso significa que se uma empresa definir um tempo de 4 horas de um RTO, ela se compromete a restaurar suas operações normais dentro desse período após um incidente.

A segunda métrica, o Recovery Point Objective (RPO), está relacionada com a quantidade máxima de dados que uma organização está disposta a perder em caso de interrupção. Ele representa o ponto no tempo até o qual os dados devem ser recuperados após um incidente, indicando a máxima tolerância à perda de dados. Se assim, se uma organização tem um RPO de uma hora, isso implica que está disposta a perder no máximo uma hora de dados em caso de uma interrupção. Ambos RTO e RPO são partes críticas do planejamento de recuperação de desastres e são usados para determinar as estratégias e tecnologias necessárias para garantir a continuidade dos negócios.

Planejamento é essencial

Cada modelo de negócio tem suas particularidades e a maioria dos incidentes de dados tem o potencial de serem evitados. É importante que os gestores do negócio percebam o quanto valem os seus dados e invistam em políticas e abordagens concretas para diminuir uma possível perda de dados. O desenvolvimento de Handbooks discriminando os processos de cada setor, o passo a passo, treinamento da equipe técnica, assim como uma Matriz “viva” da análise de riscos, sempre em desenvolvimento, ajudam na organização interna dos squads e na tomada de decisão do time em momento de crise.

Para equipes que não possuem DBAs experientes e desejam estar preparadas para emergências, além das dicas mencionadas, vale a pena pensar na contratação de uma consultoria especializada em banco de dados para esses momentos críticos.

Investir no planejamento é fundamental, pois um incidente de dados sem backup pode ser irreversível, dependendo da gravidade. É importante que os gestores de negócio disponibilizem recursos para iniciativas relacionadas à recuperação de dados. Em muitos casos, a prevenção e o investimento contínuo revelam-se menos dispendiosos quando comparados às ações reativas. Priorizar a implementação de medidas preventivas não apenas resguarda contra possíveis perdas de dados, mas também se revela uma abordagem financeiramente mais vantajosa no longo prazo.

Conte conosco!

Se você sente que está deixando seus dados em risco e precisa de ajuda para definir uma política de recuperação de desastres para o seu negócio, mande uma mensagem para nós. Temos um time experiente que irá desenvolver um plano específico para o modelo de dados do seu negócio.

[>> Fale com a Timbira!]

PostgreSQL: Versão 11 não receberá mais atualizações!

By Institucional No Comments

No dia 09 de novembro de 2023, o PostgreSQL 11 chegou ao fim de sua vida útil e não receberá mais correções de bugs e atualizações de segurança.
Lançada em 18 de outubro de 2018, a versão 11 nos trouxe algumas melhorias significativas, que nos permitiram extrair resultados aprimorados no PostgreSQL. Entre essas melhorias, destacamos algumas:

  • Particionamento
    Possibilidade de criar um particionamento por uma chave hash;
    Suporte à criação de uma partição padrão, que permitiu armazenar o dado que não corresponde com a regra das partições existentes;
    Melhoria no planejamento de consultas que utilizam tabelas particionadas, possibilitando a eliminação de partições desnecessárias durante a execução;
  • Paralelismo
    Possibilidade de criação de um índice btree de forma paralelizada;
    Melhoria de desempenho nos hash joins e varreduras sequenciais;
  • Procedures
    Foi adicionado o suporte a procedures, garantindo maior compatibilidade com outros banco de dados de mercado;
  • Índices
    Adicionado a cláusula INCLUDE, que permite especificar uma lista de colunas que serão incluídas no índice;
  • Desempenho
    Foi aprimorado com a capacidade de evitar a reescrita de uma tabela para um ALTER TABLE … ADD COLUMN com um default de coluna non-null;
  • Just-in-time Compilation (JIT)
    Adição do parâmetro JIT, , que determina se a compilação JIT pode ser usada pelo PostgreSQL para acelerar a avaliação de expressões.

Atualmente, o PostgreSQL adota uma política de versionamento, lançando uma nova versão a cada ano, geralmente entre os meses de Agosto e Novembro. Após o lançamento, cada versão é suportada por cinco anos, o que significa que ela não receberá novos recursos, apenas correções de bugs e atualizações de segurança. Caso queira saber mais sobre esse ponto, você pode acompanhar a política de versionamento neste link.

Diante dessa informação, nossa recomendação para a maioria dos casos é a migração para uma versão mais recente do PostgreSQL. No entanto, surge uma pergunta importante: quando é o momento adequado para realizar essa atualização? Sabemos que uma migração envolve diversas variáveis, incluindo esforço financeiro e humano. No intuito de auxiliar nessa tomada de decisão, elencamos alguns pontos importantes a serem considerados para escolha do momento ideal para implementar esse processo nos seus ambientes PostgreSQL.

Fim do suporte da sua versão atual

Seguindo a política de versionamento, uma versão, após ser lançada, recebe aproximadamente cinco anos de suporte pela comunidade. Nesse sentido, as atualizações de segurança ou correções de bugs, vitais para manter seu ambiente sustentável, têm uma data prevista para serem encerradas, a partir da expiração desse prazo.

Crescimento da demanda do seu banco de dados

Com o crescimento do seu negócio, o seu ambiente postgreSQL pode demandar melhores tempos de resposta e esse pode ser um ponto importante na decisão de migrar. A cada versão o PostgreSQL adiciona novos recursos, mas também aperfeiçoa recursos existentes. Com isso, manter seu ambiente atualizado garantirá uma melhor utilização dos recursos computacionais e, consequentemente, isso se refletirá no usuário final.

Necessidade de novas funcionalidades em seu negócio

A cada nova versão, são lançados novos recursos que têm o potencial de aprimorar a eficiência operacional. Portanto, ao planejar uma migração, você estará incorporando essas funcionalidades ao seu ambiente, garantindo melhores resultados para o seu negócio.

Aprimoramento da eficiência operacional

Novas versões trazem melhorias nas ferramentas de administração e manutenção do PostgreSQL. Se você busca melhorar a sua eficiência operacional, é um ponto a se considerar na decisão de migrar para uma versão mais recente.

Segurança é um ponto chave para o seu negócio

A cada nova versão, são incorporados novos recursos de segurança. Nos dias de hoje, considerando que os dados são vistos como o “novo petróleo”, é crucial manter a máxima precaução nesse aspecto. Manter-se sempre atualizado ajudará a evitar possíveis problemas e vulnerabilidades, uma vez que questões já identificadas e corrigidas estão presentes nas versões mais recentes.

A utilização de novas tecnologias é um destaque em relação aos seus concorrentes

Constantemente, novas ferramentas são desenvolvidas, drivers de conexão são atualizados e bibliotecas emergem. Manter uma versão desatualizada do PostgreSQL pode limitar o acesso a esses recursos inovadores. Por essa razão, consideramos este um ponto fundamental e estratégico para o seu negócio. Manter-se alinhado com as últimas tecnologias potencializará sua posição em relação aos concorrentes.
Além disso, migrar para uma versão mais recente pode proporcionar uma série de benefícios, incluindo melhoria de desempenho, suporte estendido, melhor gerenciamento de recursos, segurança aprimorada e a incorporação de novos recursos. Em uma próxima oportunidade, compartilharemos mais dicas e sugestões sobre como planejar essa atualização.

PostgreSQL 16

No dia 14 de setembro de 2023, foi anunciado o PostgreSQL 16, a versão mais recente do PostgreSQL. Nessa atualização, houve aprimoramentos significativos no desempenho, destacando melhorias notáveis em paralelismo de consultas, carregamento em massa e replicação lógica.
Entre os destaques estão a expansão da sintaxe SQL/JSON, estatísticas de monitoramento aprimoradas, flexibilidade no controle de acesso e políticas de segurança, melhorias de desempenho, replicação lógica a partir de instâncias standby e suporte a balanceamento de carga. O PostgreSQL 16 também traz melhorias na experiência das pessoas de desenvolvimento, introduzindo novos comandos no psql, suporte a agrupamentos de texto e a adição de métricas de E/S. Para mais detalhes, confira o link.

Processo de Migração

O processo de migração deve ser tratado como um projeto, dividido em várias fases, sendo a fase de homologação de suma importância e necessitando de cuidados especiais. Durante esse projeto, é crucial analisar todas as mudanças que ocorreram desde a versão atual até a versão alvo da migração. Essa atividade é fundamental para mapear os principais pontos de impacto do projeto. Recomenda-se sempre migrar para uma versão mais recente, e essas migrações devem ser incorporadas ao roadmap. Isso garante que as migrações ocorram em intervalos menores e com menor impacto de mudanças, facilitando a transição.

Atualmente, existem diversas estratégias para realizar a migração, como, por exemplo, o dump/restore, pg_upgrade ou até mesmo usando replicação lógica. A escolha desta estratégia dependerá de alguns fatores, como o tempo disponível para a janela de manutenção (downtime) e a estratégia de rollback.
Caso a decisão seja migrar para a última versão disponível do PostgreSQL, uma boa prática é aguardar pelo menos a primeira release de minor version (ex.: 16.1). Isso ajuda a prevenir possíveis riscos no ambiente causados por bugs na versão inicial.

Dica Importante!

Se você estiver executando o PostgreSQL 11 em um ambiente de produção, sugerimos que você faça planos para atualizar para uma versão mais recente e compatível do PostgreSQL. A migração para uma versão recente do PostgreSQL não é apenas uma atualização técnica, mas uma estratégia proativa para otimizar seu ambiente de banco de dados, melhorar a segurança, e se manter competitivo em um cenário tecnológico em constante evolução.

Se você precisa de ajuda no processo de planejamento, organização e implementação de uma migração no seu ambiente PostgreSQL, entre em contato com nosso time de atendimento. O futuro da sua empresa pode depender disso.

[>> Quero falar com a Timbira!]

Como o VACUUM pode influenciar o desempenho do seu PostgreSQL?

By Institucional No Comments

Uma característica importante do PostgreSQL é o isolamento de suas transações. Esse mecanismo utiliza o método MVCC (Multiversion Concurrency Control), ou Controle de Concorrência Multiversão. Este método apresenta vantagens e possibilidades a partir de seus mecanismos implementados, como, por exemplo, a redução de bloqueios ao permitir que várias transações simultâneas acessem os mesmos registros. Isso resulta em um cenário em que leituras não bloqueiam escritas e vice-versa. Por outro lado, uma desvantagem dessa arquitetura é o versionamento das linhas que não serão mais utilizadas (também conhecidas como tuplas mortas), exigindo algum mecanismo de limpeza.

Para solucionar esse problema, o PostgreSQL utiliza um recurso chamado VACUUM, que é responsável por efetuar essa limpeza. Esse recurso pode ser acionado manualmente por comandos simples ou de forma automática através do Autovacuum.

Neste texto, você poderá entender um pouco mais sobre o VACUUM e também sobre as melhorias implementadas na versão 16 do PostgreSQL, que foi lançada no dia 31 de agosto de 2023.

Quais são os tipos de Vacuum?

Antes de tudo é preciso compreender que o Vacuum no PostgreSQL apresenta algumas variações básicas. Aqui estão as principais:

VACUUM

De maneira simplificada, o VACUUM é uma ferramenta muito útil para identificar registros não utilizados no banco de dados, permitindo a recuperação de espaço em disco e melhorando o desempenho das consultas. Este comando pode operar em paralelo com a leitura e escrita normais da tabela, pois o Postgres não obtém um bloqueio exclusivo das tuplas desta tabela que sofre o VACUUM. Contudo, na maioria dos casos, o espaço extra não é devolvido ao sistema operacional; ele permanece disponível para reutilização na mesma tabela.

No PostgreSQL, os registros não são deletados fisicamente, mas marcados como inúteis, prática comum em diversas aplicações. De maneira geral, a ideia é tornar as operações de update mais eficientes e evitar um crescimento desnecessário da tabela, por isso entender a dinâmica do modelo de negócio é importante, assim como optar pela técnica do VACUUM mais adequada para cada banco de dados.

VACUUM FULL

O VACUUM FULL faz uma recriação de toda a tabela (objeto), deixando-a somente com registros válidos, pois ele grava uma nova cópia da tabela e não libera a tabela antiga até concluir a operação. Este procedimento requer cautela, pois é invasivo, precisa de espaço em disco suficiente, causa bloqueio da tabela e gera indisponibilidade de acesso durante sua execução. Dessa forma, é recomendável sempre programar uma janela de manutenção para esse tipo de procedimento.

Algumas empresas executam esse procedimento em situações bem específicas, como quando a base de dados atinge um tamanho considerável, com muitas tabelas, e existe a necessidade urgente de liberar espaço em disco, com a premissa de que downtime não prejudique os usuários. Uma dica importante: por questões de segurança, essa ação deve ser permitida apenas pelo superusuário do banco de dados e só pode ser executada de forma manual. Ou seja, nenhum processo do PostgreSQL executará um VACUUM FULL automático.

VACUUM FREEZE

O VACUUM FREEZE realiza um “congelamento” agressivo das linhas, essencialmente congelando o ID da transação para todas as páginas, independentemente de terem sido modificadas ou não. Isto faz com que todas as linhas atuais sejam vistas como antigas para todas as novas transações. Vale destacar que essa opção é sempre ativada ao usar o VACUUM FULL. Como citado anteriormente, o VACUUM FULL reescreve e corrige os dados, incluindo o VACUUM FREEZE. Embora sejam opções semelhantes, elas não são idênticas.

VACUUM VERBOSE

O VACUUM VERBOSE permite um acompanhamento de todas as ações que ocorrem durante o processo. Esse parâmetro possibilita a geração de um relatório detalhado de tudo o que está sendo executado pelo comando VACUUM.

O comando “VACUUM VERBOSE” é bastante útil para analisar possíveis falhas na execução do VACUUM ou até mesmo para conferir estatísticas após sua execução. Esse comando pode ser utilizado em conjunto com qualquer tipo de VACUUM. Exemplos: VACUUM VERBOSE FREEZE, VACUUM VERBOSE FULL.

VACUUM ANALYZE

Esta opção é responsável por atualizar as estatísticas usadas pelo planejador do plano de consultas. Embora possa ser acionada individualmente, quando em conjunto com o VACUUM traz uma excelente abordagem de otimização. Isso ocorre porque requer apenas o bloqueio de leitura da tabela, permitindo que as demais transações ocorram normalmente no banco de dados. E assim como o VACUUM VERBOSE, esse comando também pode ser utilizado em conjunto de qualquer tipo de VACUUM.

A execução coordenada do VACUUM e ANALYZE é essencial para manter atualizadas as estatísticas do banco de dados, possibilitando melhorar a performance nas pesquisas.

Autovacuum do PostgreSQL

Embora seja uma ferramenta opcional, é fortemente recomendado que esse processo nunca seja desativado em seu banco de dados. Essa funcionalidade, executada automaticamente pelo sistema gerenciador do PostgreSQL, realiza as operações de VACUUM e ANALYZE em segundo plano. O controle desse processo é realizado através dos valores definidos nos parâmetros de configuração.

O Autovacuum é nativo do PostgreSQL, permitindo a configuração para que o próprio banco execute o VACUUM simples (sem o FULL). É indicado para monitorar picos inesperados nas tabelas, devido às suas regras de verificação que determinam em quais tabelas as ações de limpeza devem ser executadas. Dessa forma se garante que todas tabelas (em todos os bancos de dados) que excedam estes valores sejam marcadas para o VACUUM. Esse processo conta com outros procedimentos integrados para seu funcionamento eficaz.

Existem outros tipos de VACUUM que você pode consultar aqui!

Entendendo as melhorias na atualização do PostgreSQL 16:

A partir desta versão, o VACUUM poderá ser utilizado ao fornecer apenas o nome do schema, possibilitando que a execução seja apenas nos objetos desse schema. Essa funcionalidade beneficia empresas que possuem uma organização de seus objetos agrupados por schema e têm a necessidade de realizar a manutenção desses objetos em conjunto.

Um exemplo desse cenário envolve clientes que usam o conceito de multi-tenancy baseado em schemas. Dessa forma, torna-se possível a execução da rotina de manutenção para clientes (schemas) de forma isolada, eliminando a necessidade de criação de recursos personalizados, como o uso de scripts ou blocos de código em pl/pgsql.

Outra implementação do VACUUM para a versão 16 é poder executar a rotina apenas para as tabelas TOAST. O comportamento padrão continua sendo a execução da rotina no objeto principal, o que é recomendado, mas agora há a opção de execução separada, caso necessário.

Dicas e Melhores Práticas

O VACUUM é um procedimento essencial para o desempenho ideal do PostgreSQL. Embora a configuração padrão do autovacuum venha habilitada seguindo métricas de valores globais, alguns cenários exigem que o seu uso seja ponderado ou que venha acompanhado da consultoria de um especialista DBA PostgreSQL. Alguns exemplos de cenários que exigem uma ação mais ponderada são: alto volume de alterações, cargas de dados, tamanho dos objetos, quantidade de tabelas, ou recursos disponíveis no servidor.

Não existe uma recomendação única de parametrização com valores exatos que atenda a todos os cenários. Cada caso é único, o que demanda um ajuste bem elaborado e contínuo. Nesse sentido, podemos ir de uma base com diversos problemas causados pela ausência do trabalho do autovacuum, causando impactos em todo o negócio, para uma situação que exige menos investimentos em infraestrutura e operações, aproveitando o melhor desempenho proporcionado por manutenções bem executadas.

Existem diversas estratégias para configuração e automatização da execução do VACUUM, mas a melhor abordagem é um ajuste customizado de autovacuum para cada tabela no seu banco de dados. Esses valores devem ser baseados em seu volume de alterações, tamanho da tabela, quantidade de recursos disponíveis, entre outras variáveis. Este é um trabalho contínuo que deve evoluir junto com o crescimento do banco de dados.

Como está o seu banco de dados? Já executou alguma operação de VACUUM? A Timbira pode te ajudar com uma consultoria especializada no PostgreSQL. Conte com o nosso time para ajudar o seu banco a performar e ser responsivo.

[Quero avaliar meu ambiente PostgreSQL]

[Quero falar com a Timbira]

A importância de ter uma versão do PostgreSQL atualizada

By Institucional No Comments

A necessidade de armazenar e gerenciar dados com segurança e de forma eficiente fomentou o surgimento dos bancos de dados relacionais. Esse é o caso do PostgreSQL, que surgiu nos anos 80 e vem ganhando espaço em diversas empresas de tamanhos e segmentos diferentes. Especialmente por ser um banco de dados open source e contar com uma comunidade bem ativa, que estuda, desenvolve, testa, corrige bugs e ainda ajuda fortemente a compartilhar versões atualizadas com frequência. Em setembro de 2023, o PostgreSQL Global Development Group anunciou a versão 16 que contou com diversas melhorias que você pode ver detalhadamente no site oficial postgresql.org.

Neste texto você poderá saber mais sobre a importância de manter um banco de dados atualizado. Falaremos sobre questões de segurança, alta disponibilidade, interação com outras aplicações e muito mais, confira.

Muitos gestores e profissionais de TI, às vezes por não estarem em contato direto com o banco, só percebem e entendem a importância dessa prática em situações de crise, que vão desde a perda de clientes por incompatibilidade de sistema, degradação dos dados, perda de performance ou uso excessivo de hardware, até a indisponibilidade da base de dados e ataques cibernéticos. Em suma, prejuízos financeiros e de imagem.

Vulnerabilidades de um Sistema Desatualizado

  • Processamento menos eficiente nas consultas dos dados
    As novas versões do PostgreSQL vêm com várias alterações para otimizar o motor de busca do banco de dados, podendo melhorar significativamente a performance de consultas de sua aplicação.
  • Problemas de compatibilidade
    Aplicações perdem a evolução de funcionalidades que permitiriam aumento de performance, correções de bugs e possibilidade de implementação de novas formas de acessar as informações dos bancos de dados.
  • Performance e brechas de segurança
    Constantemente lidamos com problemas de segurança e estar com uma versão desatualizada aumenta o risco de existirem bugs.

Portanto, questões de segurança, compatibilidade com demais aplicações, perda de performance e o uso excessivo de hardware (CPU) podem ser ocasionadas devido a um banco de dados desatualizado.

O Que Levar em Consideração Quando Buscar Atualizar a Versão do PostgreSQL

A partir do momento que o gestor percebe a necessidade de atualização da versão do seu banco de dados PostgreSQL, deve considerar:

  • No lado do cliente, a aplicação que irá consumir o banco de dados.
    Todos os softwares terão uma boa integração com o banco de dados? A consulta desses dados será performática nesse novo ambiente? Qual será o esforço humano diante das correções necessárias? Então, dependendo do modelo de negócio, esses fatores, somados ao custo benefício, devem ser pensados.
  • O servidor que irá hospedar o sistema, independente do sistema operacional.
    Durante o processo de migração, é crucial avaliar se o hardware atual pode acompanhar o crescimento do seu negócio, termo comumente referido no contexto de bancos de dados como “capacity planning”. O upgrade da versão do sistema operacional também desempenha um papel vital, trazendo consigo novas funcionalidades, melhorias de segurança e correções de bugs. Além disso, ajustes nas configurações do sistema operacional e do PostgreSQL são fundamentais para garantir o desempenho e a estabilidade do ambiente PostgreSQL.
  • A mudança de comportamento de alguns códigos, que pode alterar conforme a versão atualizada.
    Com a atualização de versão, alguns códigos já não produzem os mesmos efeitos de versões anteriores, podendo mudar a dinâmica do banco de dados.

5 motivos para você considerar uma migração para PostgreSQL 16

  1. Melhoria no controle de acesso e segurança
    O PostgreSQL 16 apresenta recursos avançados de segurança, incluindo atualizações nos protocolos de autenticação, controles de acesso (superusuário) e criptografia, assegurando dados seguros e íntegros.
  2. Melhorias de desempenho em consultas
    A última versão do PostgreSQL apresenta importantes melhorias no que tange desempenho, dando velocidade a consultas e operações de leitura. O desempenho aprimorado garante uma experiência fluida ao usuário.
  3. Melhoria no recurso de replicação lógica e monitoramento
    A partir do PostgreSQL 16, os usuários agora têm a capacidade de criar uma replicação lógica a partir de um servidor standby. Essa funcionalidade proporciona portabilidade na distribuição da carga de trabalho. Além disso, houve uma melhoria significativa no desempenho, possibilitando que os assinantes apliquem grandes transações em paralelo.
    Foi adicionada uma nova visão para o monitoramento de I/O, possibilitando um acompanhamento mais preciso da carga de trabalho e ajustes imediatos ao identificar pontos de gargalo. Também foi incluído um novo campo de data/hora na visão de estatísticas de tabela, permitindo verificar quando a tabela ou índice foi utilizado.
  4. Melhoria no suporte a JSON
    Os dados semi-estruturados continuam em uma crescente, e um bom exemplo é o JSON. A nova versão aprimora o suporte a esse formato, facilitando a integração e manipulação de dados complexos, facilitando assim o dia a dia do desenvolvedor que utiliza este recurso.
  5. Portabilidade e padronização
    A compatibilidade com os padrões SQL foram expandidas, com melhorias substanciais de desempenho. Nesse aspecto, os trabalhos de migrações são facilitados, assim como a promoção de operações conjuntas, possibilitando a portabilidade entre diferentes sistemas de gerenciamento de banco de dados.

Se você tiver curiosidade em saber sobre os bugs e alterações de uma versão para outra do PostgreSQL, acesse o site “Why upgrade PostgreSQL?”.Lá você pode inserir o número da versão anterior e comparar com uma versão atual, analisando as marcações em vermelho, que são bugs que foram corrigidos. Você vai notar que muita coisa mudou!

Todo processo de migração, especialmente em bancos em produção, é um trabalho delicado, que requer muita atenção e conhecimento. Se você precisa de ajuda no processo de planejamento, organização e implementação de uma migração segura, entre em contato com nosso time de atendimento. O futuro de sua empresa pode depender disso.

[Quero falar com a Timbira]

Computer Security Day: Você está protegendo seu Banco de Dados PostgreSQL?

By Institucional No Comments

Sistemas de gerenciamento de bancos de dados desempenham um papel muito importante em empresas e organizações. Para os usuários do PostgreSQL, a segurança dos dados é de suma importância. Em 30 de novembro, comemoramos o Computer Security Day, um lembrete de que a cibersegurança é um ponto fundamental em nossa jornada com o PostgreSQL. Neste artigo, vamos explorar a importância deste dia e discutiremos estratégias para proteger nossos dados ao usar o PostgreSQL.

Por que o Computer Security Day é importante para usuários do PostgreSQL?

Os usuários do PostgreSQL têm um motivo adicional para se dedicarem às melhores práticas de segurança. Este sistema de gerenciamento de banco de dados de código aberto é reconhecido por sua flexibilidade e robustez, o que o torna atrativo para uma variedade de  aplicações em organizações de todos os portes. No entanto, essa popularidade também o torna um alvo potencial para ameaças cibernéticas.

À medida que confiamos, informações importantes, sistemas essenciais e  dados críticos ao PostgreSQL, se torna muito importante garantir a segurança desses ativos, destacando a necessidade de medidas proativas para proteger nossos bancos de dados contra ameaças virtuais em constante evolução.

Dicas para Fortalecer a Segurança no PostgreSQL:

  • Senhas Fortes:  O PostgreSQL requer senhas sólidas para garantir o acesso seguro aos dados. Utilize senhas complexas e únicas para suas contas e, sempre que possível, implemente autenticação de dois fatores.
  • Atualização de segurança do sistema operacional: Mantenha o sistema operacional atualizado com as últimas correções de segurança para proteger o seu  ambiente do PostgreSQL.
  • Firewalls : Implemente firewalls e controle de acesso rigorosos para restringir quem pode se conectar ao banco de dados.
  • Controle de Acesso:  Evite  criar usuários com perfil de superusuário. Defina políticas de acesso com base no “princípio do privilégio mínimo”, garantindo que apenas usuários autorizados possam acessar e modificar os dados.
  • Conexões seguras: Utilize métodos seguros de conexão, como SSL/TLS, para estabelecer uma comunicação criptografada entre o cliente e o servidor.
  • Auditoria de Dados:  Ative auditorias de dados no PostgreSQL para monitorar atividades suspeitas e identificar evidências de acesso não autorizado.
  • Backup e Recuperação: Faça backups regulares de seus dados no PostgreSQL e tenha planos de recuperação em caso de incidentes de segurança. Teste constantemente seus planos de recuperação para garantir que eles funcionarão no momento em que precisarem ser aplicados.
  • Registros de eventos: Desenvolva constantemente o monitoramento dos registros do Postgres em busca de algo suspeito, fora do comum, e atue nessas correções o quanto antes. Busque identificar comportamentos fora do padrão, erros que começaram a ocorrer numa frequência fora do convencional.
  • Treine pessoas: Planeje treinamentos e mantenha seu time sempre atualizado, promovendo a conscientização sobre as práticas de segurança e destacando o valor dos dados para a sua empresa.

Responsabilidade Compartilhada:

Lembre-se de que a segurança cibernética é uma responsabilidade compartilhada. Tanto os administradores do PostgreSQL quanto os usuários finais desempenham um papel essencial na manutenção de um ambiente seguro. À medida que continuamos a utilizar o PostgreSQL como nossa escolha de sistema de gerenciamento de banco de dados, é essencial que também façamos da segurança cibernética uma prioridade

O Computer Security Day nos lembra que a segurança de nossos dados no PostgreSQL é uma tarefa constante. Proteger nosso mundo digital é um investimento valioso para o futuro de nossas operações de banco de dados. Nunca subestime o valor das medidas de segurança cibernética eficazes, pois elas podem ajudar a manter os dados seguros e a garantir o desempenho confiável do seu Banco de Dados PostgreSQL.

Se você precisar de ajuda para avaliar a segurança do seu ambiente e promover melhorias, conte conosco. Temos um time multidisciplinar preparado, incluindo uma engenharia dedicada com anos de experiência no uso do PostgreSQL.

Quero avaliar meu ambiente PostgreSQL

Quero falar com a Timbira