Gerenciamento de TI

By | 02:47
Gerenciamento de TI

Gerenciamento de servidores

A proliferação de servidores dificulta o gerenciamento da infra-estrutura, o que aumenta os riscos de ineficiência dos sistemas.

Os benefícios da consolidação

A opção pelo modelo de computação distribuída vem sendo feita pelas corporações desde o início da década de 80. Esses ambientes de Tecnologia podem dispor de um único computador com maior capacidade, utilizado como servidor de várias estações-cliente (desde PCs comuns a estações de trabalho). O mais comum, no entanto, é as empresas contarem com um ambiente heterogêneo, com vários servidores distribuídos ou ligados em cluster (vários servidores ligados em rede). Esse modelo requer maiores cuidados de gerenciamento para que a infra-estrutura não se torne complexa demais, ineficiente, cara e necessitando de contínuos investimentos em equipamentos, componentes e pessoal.

Devido às limitações do hardware e do software no passado, muitos operadores e administradores ainda permanecem presos a alguns conceitos e regras, por exemplo, a de que cada aplicação de missão crítica deve ficar num único servidor dedicado, o qual nunca pode utilizar mais do que 80% da capacidade da CPU (unidade central de processamento). Com a evolução tecnológica, isso não faz mais sentido.

Atualmente, a grande preocupação dos gestores de TI refere-se à proliferação do número de servidores. Cada vez mais as empresas investem em novos equipamentos, em busca de aumentar a produtividade e atender às crescentes necessidades dos negócios o que, ao contrário, pode causar graves transtornos e dificuldade de gerenciamento. A diversidade de plataformas operacionais e de gerações tecnológicas num único ambiente provoca problemas de operação, manutenção, atualização e, conseqüentemente, influi nos custos.

Um dos fatores que tem contribuído para o aumento do número de servidores nas empresas é a redução do custo do hardware, a cada ano, embora esse valor represente apenas 20% do custo total de propriedade. Apesar de a opção de instalar vários servidores possa parecer uma alternativa barata, cada nova máquina que chega, no entanto, adiciona custos ocultos significativos, requerendo dedicação dos técnicos especializados em atividades de depuração, otimização e gerenciamento. Além disso, é necessária a manutenção de diferentes configurações como scripts operacionais, versões de sistemas, utilitários de apoio, procedimento de backup e disaster recovery.

Manter todo esse aparato sob controle requer a adoção de algumas medidas, entre as quais se incluem as seguintes consolidações: geográfica, física, de dados e aplicações. Entende-se por consolidação geográfica a redução do número de sites, concentrando os servidores em um número menor de máquinas. Na prática, isso possibilita reduzir custos de administração, na medida em que diminui a necessidade de técnicos remotos. Também os níveis de serviço acabam sendo otimizados, por meio da adoção de procedimentos e regras operacionais.

Consolidação física significa transferir a carga de vários servidores de menor porte para máquinas de maior porte, o que melhora a utilização geral dos recursos. Em média, um servidor distribuído utiliza de 20% a 30% de sua capacidade, o que equivale ao uso do pleno potencial de um único servidor a cada três máquinas.

Outra medida recomendável refere-se à consolidação de dados e aplicações, o que exige ações mais sofisticadas e planejamento preciso para combinar diversas fontes de dados e plataformas em uma única.

Para compreendermos melhor esses conceitos, vamos imaginar que uma empresa disponha de um parque com 200 servidores, mesclando tecnologias Intel e RISC, de diversos fornecedores e gerações tecnológicas, os quais operam com sistemas operacionais distintos, como Unix, Linux e versões variadas de MSWindows e NetWare, da Novell. Administrar esse ambiente heterogêneo implica custos de pessoal especializado para operação e suporte, além de gastos com as inúmeras versões de software e de soluções de gerenciamento e de segurança.

Todas essas questões podem ser minimizadas se a empresa optar por uma simples consolidação geográfica e física, substituindo essas máquinas por 30 ou 40 de maior porte, obtendo como resultado a redução do número de técnicos, dos custos de instalação física e operacionais, e ainda registrando ganhos em disponibilidade, segurança, nível de serviço e aproveitamento dos recursos computacionais.

O planejamento da capacidade dos servidores é outra tarefa que deve ser feita de forma contínua pelo gestor da TI, de acordo com a demanda e o volume de processamento dos sistemas para que as variações de uso que ocorrem no ambiente não comprometam a performance desejada e apropriada. A periodicidade com que esse trabalho deve ser feito pode ser diária, semanal ou mensal, de acordo com as características de demanda das máquinas, do volume das informações processadas e da criticidade do ambiente.

Podem ser empregadas ferramentas que auxiliem a analisar o histórico de uso dos sistemas e a realizar cálculos para projetar necessidades de expansões futuras, levando em consideração aspectos como número de usuários simultâneos que acessam o servidor, aumento de velocidade de processamento, aumento da capacidade de memória, ampliação do número de estações clientes ligadas aos servidores, novos periféricos e aplicativos agregados.

O gerenciamento da mudança

Os principais propósitos do gerenciamento são preservar e assegurar a confiabilidade e a boa performance dos sistemas, aos menores custos possíveis de propriedade e de manutenção. A plataforma de aplicação escolhida deve levar em consideração cinco fatores principais: flexibilidade, escalabilidade, performance, confiabilidade e segurança. Para evitar problemas futuros, o gestor da TI precisa estar atento à garantia da qualidade das ferramentas empregadas na corporação.

As melhores práticas do mercado recomendam que, no caso de servidores, é importante obter dos fornecedores garantia de, no mínimo, 99,9% de confiabilidade. Os procedimentos para assegurar o bom desempenho dos servidores devem ser os mesmos que os aplicados a computadores de maior porte, como mainframes, com monitoramento e manutenções periódicas e planejamento do desempenho e uso dos sistemas.

Nos casos em que a TI suporta operações importantes para a empresa, mas esta ainda se vale de equipamentos de menor porte para essa tarefa, é recomendável optar pela adoção de servidores em cluster, assegurando a redundância do ambiente e, com isso, garantindo a manutenção dos serviços mesmo no caso de pane em algum dos equipamentos. Também é importante dispor de um sistema de backup para prevenir eventuais problemas de perda dos dados ou de indisponibilidade dos sistemas.

Também se faz necessária a adoção de algum tipo de gerenciamento das mudanças, que pode ser feito manualmente ou de forma automatizada. Quando os primeiros servidores começaram a ser empregados pelo setor corporativo, o software era instalado de forma manual, por vários tipos de mídia, como discos e os atuais CD-ROMs. Naquela época, o software instalado no servidor costumava ser estático, necessitando de alteração apenas uma ou duas vezes por ano. E quando precisavam ser modificados, o processo era realizado por técnicos que gastavam horas para concluir o serviço.

Com o passar dos anos e os avanços tecnológicos, as empresas começaram a adquirir um número maior de servidores e, com isso, surgiu a necessidade de realizar gerenciamento remoto. Algumas organizações utilizavam scripts desenvolvidos internamente e software utilitários para distribuir os aplicativos para servidores remotos e, depois, recorriam a ferramentas de administração e controle para instalação dos mesmos. Essa sistemática não oferecia escalabilidade e ainda necessitava de intervenção manual e de profissionais especializados. Com o crescimento da Web e do conseqüente aumento do uso de aplicativos baseados em rede, também aumentou a freqüência de alterações em códigos e conteúdos, sendo que ao mesmo tempo, as arquiteturas de TI se tornavam cada vez mais complexas.

Para atender essas necessidades, surgiram soluções de gerenciamento das mudanças, que em síntese são produtos indicados para simplificar o gerenciamento de aplicativos e dados, reduzindo a necessidade de administração local e, conseqüentemente, diminuindo a quantidade de chamados ao help desk. Hoje, a maioria das soluções para gerenciamento de mudanças em servidores é formada por uma mescla de sistema de distribuição de aplicativos e de conteúdo, e de instalação de arquivos, a partir de repositórios principais para pontos na rede, cujo objetivo é oferecer controle em tempo real e disponibilidade de recursos.

fonte next generation center

Postagem mais recente Postagem mais antiga Página inicial