Ambiente de produção

Quando se trata de um portal em produção não há como definir uma instalação padrão, por isso reunimos neste manual técnico alguns pontos importantes de atenção na configuração e controle, geralmente utilizados em ambientes com o CMS Plone.

Lembramos que é preciso ter um perfil mais avançado e capacitado, considerando as necessidades específicas de cada site e padrões do ambiente computacional do órgão.

É importante internalizar conhecimento com sua equipe e padronizar algumas partes da instalação para agilizar a montagem e manutenção dos ambientes.

Criar Usuário

Vamos criar um usuário para rodarmos o Plone e criar uma senha para ele:

$ sudo useradd --system --shell /bin/bash --comment 'Plone Administrator' \
--user-group -m --home-dir /opt/plone plone
$ sudo passwd plone

A partir de agora usaremos o usuário plone:

$ su - plone

Instalando o Portal

Usando repositório

Inicialmente é feito o clone deste buildout:

$ cd ~
$ git clone https://github.com/plonegovbr/portal.buildout.git

É recomendado que se utilize uma versão estável: portal.buildout possui releases correspondentes às versões de brasil.gov.portal representados como tags no repositório. Recomendamos que se utilize sempre a última tag disponibilizada. Realize:

$ git checkout tags/X.X.X

Onde X.X.X é a última tag em releases, presente em https://github.com/plonegovbr/portal.buildout/releases.

Note

Caso o comando acima apresente problemas – provavelmente devido ao bloqueio da porta de HTTPS (443) na sua rede interna – tente: git clone git@github.com:plonegovbr/portal.buildout.git portal.buildout.

Virtualenv

Para evitar conflitos com o Python utilizado pelo sistema operacional, cria-se um ambiente virtual (virtualenv) apartado do restante do sistema. Execute:

$ cd ~/portal.buildout
$ virtualenv py27
$ source py27/bin/activate

Para entender a motivação dessa diferença, leia a documentação.

Note

Apesar das instruções de instalação de bibliotecas e execução do virtualenv sobre o Python da máquina, para menor complexidade do procedimento é recomendado o uso de uma nova instalação de Python 2.7, efetuando sobre ela esses procedimentos de instalação de bibliotecas e virtualenv.

Criar um novo arquivo de configuração buildout.cfg, que estende o production.cfg para definir variáveis deste ambiente:

[buildout]
extends =
    production.cfg

[hosts]
supervisor = 127.0.0.1
instance = 127.0.0.1
zeoserver = 127.0.0.1

[ports]
supervisor = 9001
instance = 8080
zeoserver = 8100

[users]
zope = admin
os = plone

[supervisor-settings]
user = admin
password = 4dm1n${users:zope}

Note

Na configuração acima definimos o endereço do servidor como 0.0.0.0 (em todas as interfaces/ip), a porta base como 8000 e o usuário do sistema como plone. Modifique como desejar. Observe que os serviços definidos como 127.0.0.1 (loopback) só são acessíveis internamente e não na rede interna (por outros hosts). Conforme buildout.cfg acima, apenas o HAProxy estará acessível na rede interna.

E finalmente executa-se o buildout com as configurações para ambiente de produção – buildout.cfg:

$ pip install -U setuptools==36.6.1
$ python bootstrap.py
$ bin/buildout

Warning

Não execute o seu buildout com sudo: dessa forma, seu virtualenv será ignorado e ocorrerá todo tipo de erro de dependências da sua instância com as do Python do sistema.

Instalação no CentOS

No CentOS 7, é necessário liberar a porta 8000 no firewall para torná-la acessível na rede interna, conforme (como root):

$ firewall-cmd --permanent --add-port=8000/tcp && firewall-cmd --reload

Note

Modifique a porta 8000 por outra, caso tenha alterado o buildout.cfg

Inicialização e controle

O controle de inicialização e parada do back-end é feita através do daemon Supervisor. Esta ferramenta é instalada automaticamente pela configuração de produção do buildout.

O Supervisor disponibiliza dois scripts no ambiente de produção do portal. O primeiro script, bin/supervisord, é utilizado para inicialização do daemon do Supervisor. O segundo script, bin/supervisorctl é o controlador dos serviços e interface padrão para o administrador.

A inicialização do Supervisor é feita ao executar:

$ cd ~/portal.buildout
$ bin/supervisord

Para avaliarmos se o ambiente foi iniciado corretamente, utilizamos o bin/supervisorctl:

$ bin/supervisorctl status

Que deverá produzir um resultado semelhante ao exibido a seguir:

zeo                              RUNNING    pid 24546, uptime 20 days, 19:08:25
instance1                        RUNNING    pid 18731, uptime 19 days, 7:01:22
instance2                        RUNNING    pid 18731, uptime 19 days, 7:01:22

Indicando que os 4 serviços – banco de dados (ZEO), redirecionador web e duas instâncias do servidor de aplicação (instance1 e instance2) – estão ativos.

Para encerrar um dos serviços, também utilizamos o bin/supervisorctl:

$ bin/supervisorctl stop instance1

Assim como para iniciar e reiniciar os serviços:

$ bin/supervisorctl start instance1
$ bin/supervisorctl restart instance1 instance2

Para parar o daemon do Supervisor o comando é:

$ bin/supervisorctl shutdown

Note

Após um shutdown é necessário executar, novamente o bin/supervisord.

Manutenção do ambiente

Backup do banco de dados

O servidor de aplicação Zope utiliza, primariamente, o ZODB como banco de dados. O ZODB é um banco de dados não relacional (NoSQL), hierárquica e orientada a objetos.

O ZODB pode armazenar seus dados de algumas maneiras, sendo que o storage mais utilizado é o FileStorage, que armazena as informações de maneira incremental[#]_ em um único arquivo no sistema de arqvuivos.

No ambiente do portal o ZODB está configurado para que conteúdos e metadados, armazenados em um FileStorage, utilizem o arquivo:

/opt/plone/portal.buildout/var/filestorage/Data.fs

Enquanto conteúdos de arquivos e imagens sejam armazenados como blobs, na pasta:

/opt/plone/portal.buildout/var/blobstorage/

O backup dos dados pode ser feito, sem parar o ambiente, copiando-se o arquivo Data.fs e o conteúdo da pasta de blobstorage para algum outro local.

Porém é possível realizar o backup diferencial do arquivo Data.fs, permitindo uma transferência mais rápido dos arquivos.

Isto é feito com o script bin/backup que, pelos valores padrões, armazenará os dados na pasta:

/opt/plone/portal.buildout/var/backup/

Além disto, teremos o backup dos arquivos blob na pasta:

/opt/plone/portal.buildout/var/blobstoragebackups

Na instalação realizada no portal, conforme documentado no producao.cfg, foi inserida uma entrada no crontab do usuário root para a realização diária deste backup de banco de dados:

$ crontab -l -u plone
0 3 * * 0-6 /opt/plone/portal.buildout/bin/backup

Neste cenário, para um backup incremental do FileStorage e completo do blobstorage, deve-se copiar apenas estas pastas para outro local no disco. Isto pode ser realizado com os comandos a seguir:

$ rsync -auv /opt/plone/portal.buildout/var/backup/ /opt/plone/bkp/filestorage/
$ rsync -auv /opt/plone/portal.buildout/var/blobstorage/ /opt/plone/bkp/blobstorage/

Warning

Esta configuração não foi realizada no ambiente de produção.

Purga do banco de dados

A abordagem incremental do FileStorage é positiva pois permite a operação de desfazer (também conhecido como UNDO) e manutenção do histórico de cada uma das transações. Por outro lado, esta característica implica que o arquivo de banco de dados cresce rapidamente, conforme o número de transações realizadas.

É recomendado, então, realizar a purga do histórico de transações do banco de dados, de maneira periódica.

Em um ambiente que utilize a separação entre servidores de aplicação e servidor de banco de dados, como é o caso do portal, esta purga pode ser realizada sem que nenhuma dos servidores de aplicação seja comprometido [1]

A configuração producao.cfg, utilizada para o ambiente de back-end, provê um script específico para a realização da purga do ZODB. Esse script é utilizado da maneira a seguir:

$ cd ~/portal.buildout
$ bin/zeopack -p 8100 -d 1

Onde -p 8100 indica que o servidor de banco de dados está ouvindo na porta 8100 e a opção -d 1 indica que manteremos o histórico de transações realizadas no último dia.

Na instalação realizada no portal, conforme documentado no producao.cfg, foi inserida uma entrada no crontab do usuário root para a realização semanal da purga do banco de dados – e imediado backup:

$ crontab -l -u plone
0 3 * * 7  /opt/plone/portal.buildout/bin/zeopack -p 8100 -d 1 && /opt/plone/portal.buildout/bin/backup

Logrotate

Cada instância do servidor de aplicação cria, por padrão, dois arquivos de log:

  • Log de ocorrências (<nome_da_instancia>.log)
  • Log de acessos (<nome_da_instancia>-Z2.log)

Além disto o servidor de banco de dados cria um log:

  • Log de ocorrências (zeo.log)

O Supervisor cria seu próprio log:

  • Log de ocorrências (supervisord.log)

E ao menos mais dois logs por processo configurado:

  • Log de erro de processo (<nome_do_processo>-stderr—supervisor-<seq>.log)
  • Log de saída de processo (<nome_do_processo>-stdout—supervisor-<seq>.log)

Se os logs do Supervisor são pequenos e podem ser ignorados [2], os logs dos servidores de aplicação e banco de dados devem ser rotacionados.

Na instalação realizada no portal, conforme documentado no producao.cfg, foi inserida uma entrada no crontab do usuário root para a o rotacionamento dos logs:

$ crontab -l -u plone
0 3 * * 7  /usr/sbin/logrotate --state /opt/plone/portal.buildout/var/logrotate.status /opt/plone/portal.buildout/etc/logrotate.conf

Note

Conforme o indicado acima, o arquivo de configuração do logrotate se encontra em: /opt/plone/portal.buildout/etc/logrotate.conf

[1]Ou seja, transações com as alterações aos conteúdos existentes são anexadas ao final do arquivo de banco de dados.
[2]Comprometido aqui significa ter seus recursos direcionados à tarefa de purga do banco de dados.
[3]Os logs de processo, por exemplo, existem apenas durante o ciclo de vida deste processo, sendo apagados em seguida.