Latest Posts

Mostrando postagens com marcador RDSWEBMARKETING. Mostrar todas as postagens
Mostrando postagens com marcador RDSWEBMARKETING. Mostrar todas as postagens



Segurança da Informação

Segurança da Informação
Conceito
Está cada vez mais difícil manter em segurança as informações referentes a empresas ou pessoas. O descuido nessa área pode causar prejuízos significativos, e muitas vezes irreversíveis. Mas felizmente a maior parte das empresas está consciente do perigo e estamos vivendo um momento em que praticamente todas elas mantêm alguma política de segurança.
A Segurança da Informação refere-se à proteção requerida para proteger as informações de empresas ou de pessoas, ou seja, o conceito se aplica tanto as informações corporativas quanto às pessoais. Entende-se por informação todo e qualquer conteúdo ou dado que tenha valor para alguma organização ou pessoa. Ela pode estar guardada para uso restrito ou exposta ao público para consulta ou aquisição.
Podem ser estabelecidas métricas para definição do nível de segurança existente e requerido. Dessa forma, são estabelecidas as bases para análise da melhoria da situação de segurança existente. A segurança de uma determinada informação pode ser afetada por fatores comportamentais e de uso de quem se utiliza dela, pelo ambiente ou infraestrutura que a cerca ou por pessoas mal intencionadas que têm o objetivo de furtar, destruir ou modificar tal informação.
Propriedades
As principais propriedades que orientam a análise, o planejamento e a implementação de uma política de segurança são confidencialidade, integridade e disponibilidade. Na medida em que se desenvolve o uso de transações comerciais em todo o mundo, por intermédio de redes eletrônicas públicas ou privadas, outras propriedades são acrescentadas às primeiras, como legitimidade e autenticidade.
Confidencialidade – Propriedade que limita o acesso à informação tão somente às entidades legítimas, ou seja, àquelas autorizadas pelo proprietário da informação.
Integridade – Propriedade que garante que a informação manipulada mantenha todas as características originais estabelecidas pelo proprietário da informação, incluindo controle de mudanças e garantia do seu ciclo de vida (nascimento, manutenção e destruição).
Disponibilidade – Propriedade que garante que a informação esteja sempre disponível para o uso legítimo, ou seja, por aqueles usuários autorizados pelo proprietário da informação. Em todas as fases da evolução corporativa, é fato que as transações de toda a cadeia de produção – passando pelos fornecedores, fabricantes, distribuidores e consumidores – sempre tiveram a informação como uma base fundamental de relacionamento e coexistência.
O fato é que hoje, quer seja como princípio para troca de mercadorias, segredos estratégicos, regras de mercado, dados operacionais, quer seja simplesmente resultado de pesquisas, a informação, aliada à crescente complexidade do mercado, à forte concorrência e à velocidade imposta pela modernização das relações corporativas, elevou seu posto na pirâmide estratégica, tornando-se fator vital para seu sucesso ou fracasso.
Proteção da informação
Entre as inúmeras tendências que explodiram em tecnologia, poucas assumiram o status de imprescindível. Ao fazer uma comparação, ainda que os sistemas de ERP e CRM sejam de vital importância para a rotina corporativa, ou que soluções de Business Intelligence e Balanced Scorecard permitam aos negócios atingir patamares invejáveis de lucratividade, a Segurança da Informação é a única que não pode faltar em nenhuma hipótese. É ela que protege o bem maior das companhias, ou seja, a informação estratégica.
Para entender a importância da proteção das informações, basta pensar no prejuízo que causaria para os negócios a posse desses dados pela concorrência ou por alguém mal-intencionado. Atualmente, o período é de revisão de processos e de avaliação de soluções que protejam cada vez mais as informações corporativas, sem impactar fortemente na produtividade. Fato é que hoje a segurança é considerada estratégica e já encabeça a lista de preocupações de grandes empresas.
A Segurança deixou de ser submetida aos domínios da TI, para se tornar uma nova área que responde ao vice-presidente ou ao gestor de operações, ganhando orçamento próprio, salas específicas e, claro, prazos e demandas a serem atendidas. Um dos maiores dilemas da Segurança da Informação está relacionado com a proteção dos ativos e a compreensão da amplitude desse conceito dentro da empresa. A idéia de ativo corporativo envolve também uma questão de difícil medição: a marca da companhia e a percepção que ela desperta no mercado. Um grande escândalo, uma falha latente ou uma brecha negligenciada podem sepultar uma companhia para sempre, ainda que ela tenha tido muito sucesso até então. Outra questão relacionada com a Segurança da Informação, que também causa preocupação, é que se trata de um investimento sem fim. Pois à medida que ela vai se fortalecendo, os ataques cada vez mais vão se sofisticando também.
Um caminho sem volta
Não há como voltar atrás. Qualquer companhia, desde a pequena empresa com dois ou três PCs, até uma complexa organização com atuação em diversos países, sabe que em maior ou menor grau a tecnologia é essencial para seu negócio. E é justamente por ser vital, que esse bem não palpável traz consigo uma necessidade básica: segurança.
O desafio não é tão simples. Pela própria natureza, embora muitas empresas de TI estejam se esforçando para mudar essa realidade, a segurança da informação é reativa. Isso significa que, tradicionalmente, primeiro verifica-se a existência de um problema, como vírus, fraude, invasão, para depois encontrar sua solução, vacina, investigação, correção de vulnerabilidade.
Para muitos, esse cenário pode causar pânico. Afinal, primeiro eleva-se a informação ao patamar mais crítico da empresa, tornando-a peça principal do jogo. Em seguida, vê-se que esse dado, pela forma e processo com que é disponibilizado, corre o risco de ser corrompido, alterado ou roubado por um garoto de 16 anos, que resolveu testar programas hackers disponibilizados na própria Internet ou, em casos piores, usurpado por funcionários e passado para a concorrência ou ainda simplesmente causando danos financeiros à empresa.
Mas já existem práticas e soluções tecnológicas suficientemente eficientes para comprovar que a digitalização das transações corporativas não transformou os negócios em uma “terra de ninguém”. Embora reconheçam que afirmar ser 100% seguro é algo precipitado e arriscado, especialistas de segurança apontam que educação profissional, processos e tecnologia formam um tripé resistente no combate ao crime eletrônico. Pesquisas mostram que aumentam os investimentos na proteção dos dados. A segurança é o maior desafio das soluções em TI para o sistema financeiro.
Nem só de software
Outro fenômeno que tem sido observado é a concentração dos serviços de segurança pelo grupo dos dez maiores integradores mundiais. Isso reflete a necessidade prioritária das grandes corporações e governos de moverem-se em direção a fornecedores sólidos, que possam atender as demandas com flexibilidade, inteligência e rapidez, elevando a importância dos fatores de ética profissional, confiabilidade e independência, posicionando-se para o gestor como o “security advisor corporativo”.
Mas as experiências corporativas demonstraram que não é só de software que se constrói uma muralha resistente à crescente variedade de ameaças, falhas e riscos. É preciso que as ações corporativas sejam direcionadas por um Plano Diretor de Segurança, de forma que possam estar à frente de determinadas situações de emergência e risco, uma postura mais pró-ativa que reativa. Esse plano será responsável por verificar se a corporação está destinando verba suficiente para manter o nível de segurança alinhado com as expectativas de negócios. Também apontará se as vulnerabilidades são de fato corrigidas ou se há uma falsa sensação de segurança. É muito comum haver grande disparidade entre o cenário que se pensa ter e aquilo que realmente ele é.
De forma mais ampla, esse plano deve considerar questões estratégicas, táticas e operacionais de negócios, atrelando-as a três tipos básicos de risco: humano, tecnológico e físico. Ao longo desse curso será abordada cada uma dessas variáveis, desde os tipos mais tradicionais de vírus que se disseminam pela rede, até as portas mais vulneráveis da empresa, passando pelo monitoramento de sua rede, seus profissionais, soluções de TI, gestão e políticas de segurança.

FONTE

softwares por ai..
snifers = Icmpsnif
nmap;
Description
With NetBus you fool around your friends across your local network, or even over the global internet! The purpose of this program is just to have fun, and not to systematic irritate people.

O impacto da Web

Inicialmente, o Business Intelligence pertenceu ao domínio do pessoal de TI e especialistas em pesquisa de mercado, responsáveis pela extração de dados, implementação de processos e divulgação dos resultados aos altos executivos. O crescimento da Internet mudou tudo. Se até então o conceito era levar informação a poucos funcionários para orientar as decisões, hoje, a rede permite disponibilizar soluções de BI para um número maior de pessoas.

O comércio eletrônico também acelerou os negócios em diversos níveis. Some-se a isso o novo consumidor que se apresenta virtualmente. Para conhecer e atender a essas necessidades uma empresa precisa cada vez mais de agilidade comercial, capacidade de tomar decisões e refinar suas estratégias para os clientes – o mais rápido possível.

A necessidade de as organizações atingirem metas crescentes exigiu maior envolvimento corporativo maior e a democratização da informação. Internamente o BI não mudou exatamente de mãos, mas ganhou mais adeptos e principalmente mais cabeças pensantes com acesso às informações. O Business Intelligence passou a ser encarado como aplicação estratégica integrada, disponível por meio de desktops, estações de trabalho e nos servidores da empresa.

Atualmente, corporações de pequeno, médio e grande portes necessitam do BI para as mais diversas situações, da tomada de decisão à otimização do trabalho, redução de custos, previsão de crescimento e elaboração de estratégias. A maioria dos analistas considera oBI aplicável em todas as companhias, inclusive nas de faturamento reduzido, desde que analisado o custo/benefício. Para que um projeto de BI leve a empresa ao melhor desempenho, é preciso analisar dois fatores: quanto vai se gastar e o que se espera obter – ou seja, é necessário alinhar o projeto com os interesses e as estratégias da corporação.

No Brasil, soluções de Business Intelligence estão em bancos de varejo, em empresas de telecomunicações, seguradoras e em toda instituição que perceba a tendência da economia globalizada, em que a informação tem de chegar aos usuários de forma rápida, precisa e abundante porque a sobrevivência no mercado será medida pela capacidade de “gerar conhecimento”. E somente uma boa gestão do conhecimento fundamenta políticas e estratégias eficazes.

O retorno de um sistema de BI depende das prioridades de cada empresa. As ferramentas evoluem, refletindo potencial de crescimento do mercado. A velocidade imposta aos negócios pela Web exige que se dê, a quem decide, autonomia para agir. O Gartner reconheceu que o início do século 21 mudou a visão da aplicabilidade dos softwares. O que se pode imaginar para o futuro é muito menos o que podemos chamar de ferramentas e muito mais o que o mercado necessita com urgência: soluções.

Os frutos do BI

Diversas empresas já colhem frutos das soluções de BI. A General Motors do Brasil (GM) padronizou sua infra-estrutura de análise de dadoscom plataforma de Business Intelligence (BI). São atendidas pela solução as áreas de Marketing e Vendas, focadas no processo ‘Order to Delivery”, que reflete as informações desde um pedido até sua entrega ao consumidor; as áreas de Manufatura, Finanças e Compras, responsáveis pela compra de materiais indiretos, previsão de vendas de veículos (demand sensing) e análises de vendas on-line e da performance de processos internos ligados ao consumidor final. O uso da plataforma de BI permitiu ainda, à GM, trocar informações entre seus escritórios em todo o país e entender melhor o perfil dos consumidores.

Antes de fazer essa opção, a GM possuía vários processos e áreas dependentes de informações derivadas de diferentes negócios para tomar suas decisões.. Porém, na maioria das vezes, eram projetos elaborados manualmente, com diferentes sistemas e planilhas, que não interagiam. Havia a necessidade de estabelecer uma tecnologia para apoias às ações da empresa de maneira consistente e integrada. Foi, então, criada uma área específica denominada ‘Executive Information Management’, com a missão de otimizar o potencial de uso da solução de BI.

A implementação das soluções ficou a cargo da área “Executive Information Management”, criada especialmente para o projeto. Inicialmente atendia a cerca de 20 pessoas e hoje conta com mais de 600 usuários, entre analistas, supervisores, coordenadores, gerentes e diretores. Trabalha com as soluções MicroStrategy Intelligence Server,OLAP Server, Narrowcast, Web Analyst e Desktop Analyst. A mais recente aquisição foi a plataforma de BI totalmente integrada e baseada na Web. Outro benefício é a facilidade na criação de relatórios. A GM obtém qualquer informação do sistema e com mais rapidez e conta com maior facilidade para o cruzamento dos dados existentes, como por exemplo filtros por região, tempo ou modelos dos veículos comercializados. Assim, os executivos sabem pelos os relatórios eletrônicos quanto foi vendido no dia anterior. Para comportar todas essas informações, a GM possui vários bancos de dados de portes médio e grande que constituem Datamarts especializados.

Gerenciamento de TI

Gerenciamento de servidores

A proliferação de servidores dificulta o gerenciamento da infra-estrutura, o que aumenta os riscos de ineficiência dos sistemas.

Os benefícios da consolidação

A opção pelo modelo de computação distribuída vem sendo feita pelas corporações desde o início da década de 80. Esses ambientes de Tecnologia podem dispor de um único computador com maior capacidade, utilizado como servidor de várias estações-cliente (desde PCs comuns a estações de trabalho). O mais comum, no entanto, é as empresas contarem com um ambiente heterogêneo, com vários servidores distribuídos ou ligados em cluster (vários servidores ligados em rede). Esse modelo requer maiores cuidados de gerenciamento para que a infra-estrutura não se torne complexa demais, ineficiente, cara e necessitando de contínuos investimentos em equipamentos, componentes e pessoal.

Devido às limitações do hardware e do software no passado, muitos operadores e administradores ainda permanecem presos a alguns conceitos e regras, por exemplo, a de que cada aplicação de missão crítica deve ficar num único servidor dedicado, o qual nunca pode utilizar mais do que 80% da capacidade da CPU (unidade central de processamento). Com a evolução tecnológica, isso não faz mais sentido.

Atualmente, a grande preocupação dos gestores de TI refere-se à proliferação do número de servidores. Cada vez mais as empresas investem em novos equipamentos, em busca de aumentar a produtividade e atender às crescentes necessidades dos negócios o que, ao contrário, pode causar graves transtornos e dificuldade de gerenciamento. A diversidade de plataformas operacionais e de gerações tecnológicas num único ambiente provoca problemas de operação, manutenção, atualização e, conseqüentemente, influi nos custos.

Um dos fatores que tem contribuído para o aumento do número de servidores nas empresas é a redução do custo do hardware, a cada ano, embora esse valor represente apenas 20% do custo total de propriedade. Apesar de a opção de instalar vários servidores possa parecer uma alternativa barata, cada nova máquina que chega, no entanto, adiciona custos ocultos significativos, requerendo dedicação dos técnicos especializados em atividades de depuração, otimização e gerenciamento. Além disso, é necessária a manutenção de diferentes configurações como scripts operacionais, versões de sistemas, utilitários de apoio, procedimento de backup e disaster recovery.

Manter todo esse aparato sob controle requer a adoção de algumas medidas, entre as quais se incluem as seguintes consolidações: geográfica, física, de dados e aplicações. Entende-se por consolidação geográfica a redução do número de sites, concentrando os servidores em um número menor de máquinas. Na prática, isso possibilita reduzir custos de administração, na medida em que diminui a necessidade de técnicos remotos. Também os níveis de serviço acabam sendo otimizados, por meio da adoção de procedimentos e regras operacionais.

Consolidação física significa transferir a carga de vários servidores de menor porte para máquinas de maior porte, o que melhora a utilização geral dos recursos. Em média, um servidor distribuído utiliza de 20% a 30% de sua capacidade, o que equivale ao uso do pleno potencial de um único servidor a cada três máquinas.

Outra medida recomendável refere-se à consolidação de dados e aplicações, o que exige ações mais sofisticadas e planejamento preciso para combinar diversas fontes de dados e plataformas em uma única.

Para compreendermos melhor esses conceitos, vamos imaginar que uma empresa disponha de um parque com 200 servidores, mesclando tecnologias Intel e RISC, de diversos fornecedores e gerações tecnológicas, os quais operam com sistemas operacionais distintos, como Unix, Linux e versões variadas de MSWindows e NetWare, da Novell. Administrar esse ambiente heterogêneo implica custos de pessoal especializado para operação e suporte, além de gastos com as inúmeras versões de software e de soluções de gerenciamento e de segurança.

Todas essas questões podem ser minimizadas se a empresa optar por uma simples consolidação geográfica e física, substituindo essas máquinas por 30 ou 40 de maior porte, obtendo como resultado a redução do número de técnicos, dos custos de instalação física e operacionais, e ainda registrando ganhos em disponibilidade, segurança, nível de serviço e aproveitamento dos recursos computacionais.

O planejamento da capacidade dos servidores é outra tarefa que deve ser feita de forma contínua pelo gestor da TI, de acordo com a demanda e o volume de processamento dos sistemas para que as variações de uso que ocorrem no ambiente não comprometam a performance desejada e apropriada. A periodicidade com que esse trabalho deve ser feito pode ser diária, semanal ou mensal, de acordo com as características de demanda das máquinas, do volume das informações processadas e da criticidade do ambiente.

Podem ser empregadas ferramentas que auxiliem a analisar o histórico de uso dos sistemas e a realizar cálculos para projetar necessidades de expansões futuras, levando em consideração aspectos como número de usuários simultâneos que acessam o servidor, aumento de velocidade de processamento, aumento da capacidade de memória, ampliação do número de estações clientes ligadas aos servidores, novos periféricos e aplicativos agregados.

O gerenciamento da mudança

Os principais propósitos do gerenciamento são preservar e assegurar a confiabilidade e a boa performance dos sistemas, aos menores custos possíveis de propriedade e de manutenção. A plataforma de aplicação escolhida deve levar em consideração cinco fatores principais: flexibilidade, escalabilidade, performance, confiabilidade e segurança. Para evitar problemas futuros, o gestor da TI precisa estar atento à garantia da qualidade das ferramentas empregadas na corporação.

As melhores práticas do mercado recomendam que, no caso de servidores, é importante obter dos fornecedores garantia de, no mínimo, 99,9% de confiabilidade. Os procedimentos para assegurar o bom desempenho dos servidores devem ser os mesmos que os aplicados a computadores de maior porte, como mainframes, com monitoramento e manutenções periódicas e planejamento do desempenho e uso dos sistemas.

Nos casos em que a TI suporta operações importantes para a empresa, mas esta ainda se vale de equipamentos de menor porte para essa tarefa, é recomendável optar pela adoção de servidores em cluster, assegurando a redundância do ambiente e, com isso, garantindo a manutenção dos serviços mesmo no caso de pane em algum dos equipamentos. Também é importante dispor de um sistema de backup para prevenir eventuais problemas de perda dos dados ou de indisponibilidade dos sistemas.

Também se faz necessária a adoção de algum tipo de gerenciamento das mudanças, que pode ser feito manualmente ou de forma automatizada. Quando os primeiros servidores começaram a ser empregados pelo setor corporativo, o software era instalado de forma manual, por vários tipos de mídia, como discos e os atuais CD-ROMs. Naquela época, o software instalado no servidor costumava ser estático, necessitando de alteração apenas uma ou duas vezes por ano. E quando precisavam ser modificados, o processo era realizado por técnicos que gastavam horas para concluir o serviço.

Com o passar dos anos e os avanços tecnológicos, as empresas começaram a adquirir um número maior de servidores e, com isso, surgiu a necessidade de realizar gerenciamento remoto. Algumas organizações utilizavam scripts desenvolvidos internamente e software utilitários para distribuir os aplicativos para servidores remotos e, depois, recorriam a ferramentas de administração e controle para instalação dos mesmos. Essa sistemática não oferecia escalabilidade e ainda necessitava de intervenção manual e de profissionais especializados. Com o crescimento da Web e do conseqüente aumento do uso de aplicativos baseados em rede, também aumentou a freqüência de alterações em códigos e conteúdos, sendo que ao mesmo tempo, as arquiteturas de TI se tornavam cada vez mais complexas.

Para atender essas necessidades, surgiram soluções de gerenciamento das mudanças, que em síntese são produtos indicados para simplificar o gerenciamento de aplicativos e dados, reduzindo a necessidade de administração local e, conseqüentemente, diminuindo a quantidade de chamados ao help desk. Hoje, a maioria das soluções para gerenciamento de mudanças em servidores é formada por uma mescla de sistema de distribuição de aplicativos e de conteúdo, e de instalação de arquivos, a partir de repositórios principais para pontos na rede, cujo objetivo é oferecer controle em tempo real e disponibilidade de recursos.

fonte next generation center