Latest Posts

Mostrando postagens com marcador rdsweb; TI;ead; Business Intelligence. Mostrar todas as postagens
Mostrando postagens com marcador rdsweb; TI;ead; Business Intelligence. Mostrar todas as postagens



Há pouco mais de 40 anos, a informática era vista como uma forma eficiente de processar os dados e de possibilitar a automação de funções repetitivas, como as executadas pelos departamentos administrativos e contábeis das organizações. Nos anos posteriores, seu casamento com a eletrônica, também chamada de mecatrônica ou automação industrial, contribuiu para aumentar a eficiência e produtividade no chão de fábrica das indústrias. Em pouco tempo, outras importantes e radicais mudanças transformariam o mundo e, fundamentalmente, o setor corporativo.
A bem-sucedida aliança entre informática e telecomunicações permitiu tornar realidade o conceito de globalização, expandindo as fronteiras das empresas para o mundo todo por meio de um simples toque no mouse. O passo seguinte é a convergência tecnológica, reunindo funções de telefone, computador, Internet, agenda eletrônica, games, televisão, música, entre outras facilidades, em um único dispositivo.

Se para uma pessoa comum é difícil assimilar tantas mudanças em tão curto espaço de tempo, para um gestor da área de Tecnologia da Informação (TI) de uma empresa isso representa um enorme e constante desafio. A complexidade dos atuais parques de máquinas, redes e sistemas instalados é muito grande e está em contínua evolução.
Soma-se a isso a necessidade cada vez mais premente de entender não apenas de bits e bytes, mas também da estratégia de negócios da companhia, de forma a responder rapidamente às necessidades dos clientes e do mercado e a estabelecer com fornecedores e demais parceiros uma troca de informações eficiente e em tempo real.
De outro lado, os usuários internos de tecnologia (funcionários dos diversos departamentos da empresa) também passaram a ter voz ativa para a escolha de ferramentas e soluções, obrigando o gestor de TI a considerar o fator humano entre suas atribuições e responsabilidades.

Nesse novo contexto, o profissional de TI precisou e precisa reinventar-se, tornando-se mais flexível e aberto, e menos técnico e fechado, como era imprescindível num passado nem tão distante.

O ambiente centralizado

Retrocedendo no tempo, verificamos que, até o final dos anos 50, os computadores eram tidos como obra da imaginação humana ou como uma fantasia extraída dos livros e filmes de ficção científica. Praticamente apenas alguns poucos segmentos, como as áreas acadêmica, militar e governo, aventuravam-se na experimentação das então grandiosas e complexas máquinas. No Brasil, o governo do Estado de São Paulo foi pioneiro ao adquirir, em 1957, um Univac-120 para calcular o consumo de água na capital paulista. O equipamento era formado por 4.500 válvulas, realizava 12 mil somas e subtrações por minuto e 2.400 multiplicações ou divisões por minuto.

No setor privado, uma das primeiras empresas a investir nesse sentido foi a Anderson Clayton, que comprou um Ramac 305 da IBM, em 1959. A máquina tinha cerca de 2 metros de largura e 1,80 de altura, com mil válvulas em cada porta de entrada e de saída da informação, ocupando um andar inteiro da empresa. Considerado, na época, o supra-sumo da inovação, esse computador levava 5 minutos para procurar uma informação e a impressora operava com uma velocidade de 12,5 caracteres por segundo.
Em pouco menos de dez anos, essas fabulosas máquinas evoluíram e conquistaram o interesse das empresas de grande porte, órgãos do governo federal e universidades. Eram os anos 60, em que reinavam absolutos os CPDs – Centros de Processamento de Dados, ambientes climatizados, cercados por paredes de vidro, como uma verdadeira redoma, e preparados para abrigar as grandes máquinas.

Os mainframes

Em geral, o CPD era uma área à parte na empresa, à qual tinham acesso apenas os profissionais diretamente envolvidos com os computadores, como analistas de sistemas, técnicos de manutenção, programadores, operadores, entre outros. Inacessível aos funcionários de outros departamentos, o único elo entre essas ilhas de informática e o resto da companhia eram as pilhas de formulários contínuos contendo informações processadas, as quais haviam sido requisitadas pelos usuários de alguma área específica.

Até o final dos anos 70, predominou o que se convencionou chamar de a Era dos CPDs, ou ainda a Era do Computador, em que todas as decisões referentes à tecnologia estavam a cargo do gerente de processamento de dados e de sistemas de informações gerenciais. Esse profissional se reportava à hierarquia financeira da empresa, e era imprescindível que tivesse conhecimento e competência essencialmente técnicos. A produtividade era então o foco da tecnologia e a tendência organizacional da área de informática era a de centralização.

Nesse ambiente, o enfoque administrativo era o de controle e os investimentos em tecnologia eram conservadores e tinham de passar pelo crivo da área financeira da organização. Confinados e isolados no ambiente fechado dos CPDs, o gerente e demais profissionais de informática ficavam alheios às necessidades dos funcionários dos vários departamentos e também à estratégia de negócios da empresa. Todo o tempo era dedicado à criação de algoritmos, rotinas, linguagens de programação, desenvolvimento de aplicativos e demais funções técnicas.

Quando precisavam justificar novos investimentos na área, os gerentes de informática preocupavam-se em demonstrar os ganhos de custos do sistema, da mão-de-obra e de manutenção, e não os benefícios propiciados pela tecnologia para a empresa como um todo. A maior dificuldade, nessa época, era convencer a diretoria financeira da real necessidade dos investimentos requeridos para aumento da capacidade dos sistemas, manutenção e desenvolvimento de novos aplicativos. A área de informática era vista basicamente como um setor gerador de gastos e tida como “um mal necessário”.
O ambiente cliente/servidor

No começo da década de 80, os avanços da microeletrônica possibilitaram o desenvolvimento de computadores menores, que ocupavam menos espaço e, ao mesmo tempo, tornavam-se mais poderosos no que tange ao aumento da capacidade de processamento, agilidade e memória, ficando também mais acessíveis em termos econômicos. A partir de 1975, todas as funções necessárias para o funcionamento de um computador já estavam integradas num único chip. A capacidade de memória passou a dobrar a cada ano. Gradativamente, o processamento de informações deixava de ser feito em lotes de transações (em tempo posterior ou batch) e passava a ser on-line (em tempo real), ou seja, as atualizações dos arquivos eram feitas à medida que as transações eram efetuadas.

Mas foi a partir dos anos 90, com a evolução da microinformática, que as mudanças se tornaram mais significativas e visíveis. A Era dos CPDs chegava ao fim para dar início à “Era da Informação”. Aos poucos, os grandes mainframes, complexos demais para os usuários comuns e que exigiam pessoal altamente especializado para operá-los e encarregar-se da sua manutenção, e ainda eram altamente dispendiosos, começaram a ser substituídos por máquinas servidoras de aplicações, em um processo batizado de downsizing e rightsizing. Em muitas empresas, no entanto, os mainframes foram mantidos para operações mais complexas e estratégicas.

Novas máquinas e periféricos foram sendo agregados ao parque das empresas. As redes de terminais “burros” ligadas ao mainframe foram sendo substituídas pelas estações cliente e pelos computadores de mesa – os personal computers (PCs) – munidos com interfaces gráficas e aplicativos que tornaram sua operação mais fácil e amigável às pessoas sem nenhum conhecimento de tecnologia.

Começava a vigorar o modelo cliente-servidor, proporcionando a todas as esferas da empresa o acesso à informação. O ambiente centralizado e fechado do mainframe e dos antigos CPDs cedeu lugar a plataformas heterogêneas. Nessa época, começam a proliferar as software houses, disponibilizando e aumentando a oferta de software básico e pacotes aplicativos, decretando o final da era da arquitetura proprietária e abrindo caminho para o ambiente aberto e a compatibilidade entre os diferentes sistemas.

As aplicações empresariais

A informática começa a ser entendida como Tecnologia da Informação e até mesmo as empresas médias e pequenas entram para o rol das usuárias. Nas grandes companhias, surge um novo tipo de profissional, o CIO - Chefe Information Officer, definido como o mais alto executivo, cuja principal responsabilidade é a de gerenciar a informação. O gerente essencialmente técnico sai de cena e entra o executivo que precisa ser, antes de tudo, um homem de negócios, com capacidade de gerenciar os recursos de informação e atuar como um estrategista da tecnologia.

A competência requerida para o cargo é a de gerência de negócios. O CIO passa a reportar-se ao CEO - Chief Executive Officer ou Diretor Executivo, e situa-se no nível de alta gerência. O foco da tecnologia passa a ser a vantagem competitiva da empresa diante da concorrência, a missão é a inovação tecnológica e os investimentos na área são agressivos. A área de informática deixa de ser vista como um setor meramente gerador de custos, mas como fator essencial para possibilitar à empresa manter-se ágil, competitiva e inserida na nova ordem econômica ditada pela globalização.

No mesmo compasso das inovações do hardware, surgem as ondas tecnológicas e os respectivos pacotes de aplicativos, voltados a integrar toda a empresa e a aumentar a produtividade e a facilitar a comunicação e a transmissão de dados em diferentes níveis. Os sistemas de gestão empresarial, conhecidos pela sigla ERP (Enterprise Resource Planning) são adotados inicialmente pelas empresas de grande porte e, em seguida, pelo middle market. A oferta de novos aplicativos para todos os tipos de usuários prolifera-se em escala exponencial. A informática está em toda parte e ganha novas e poderosas aliadas: a Internet e as inovações no campo das telecomunicações.

Nas indústrias, o emprego da TI permite não apenas agilizar a produção, mas também facilitar o contato direto com fornecedores e parceiros de negócios. O foco são as redes internas e externas, troca eletrônica de documentos (EDI, que vem sendo substituído pelo Web EDI), código de barras, e soluções que permitam a perfeita integração com a cadeia de suprimentos (supply chain).

No setor financeiro, a atenção se volta para a segurança e a armazenagem dos dados e para as aplicações de missão crítica. As operadoras de telecomunicações e empresas de varejo e da área de serviços priorizam os pacotes que permitem identificar e selecionar os clientes, como as soluções de Customer Relationship Management (CRM), ou gerenciamento do relacionamento com o cliente. As soluções de Business Intelligence, que permitem a análise dos dados sob as mais variadas e inusitadas perspectivas, começam a chamar a atenção das empresas de diversas áreas. A oferta de produtos diversifica-se ainda mais e se mantém em contínua evolução.

Em todos os tipos e portes de empresas, os usuários passam a ter participação ativa na escolha e na implementação de novas ferramentas. Sua colaboração torna-se imprescindível para o sucesso dos novos projetos de tecnologia.

O futuro

Paradoxalmente, ao mesmo tempo em que a tecnologia se tornou mais acessível a um maior número de pessoas, o seu gerenciamento ficou cada vez mais complexo. O gerente de Ti precisa orquestrar ambientes heterogêneos compostos por máquinas de diferentes épocas e fabricantes, intranets, extranets, redes locais (LAN), redes de longa distância (WAN), redes e dispositivos sem fio (notebooks, handhelds, palmtops etc), comunicação por satélite, software para diferentes aplicações, firewall, antivírus, política de segurança e mais uma série de questões puramente tecnológicas.

Mas, além disso, ele ainda precisa se preocupar com outros aspectos: saber ouvir, respeitar e atender as necessidades dos profissionais de todas as áreas da empresa, integrar hardware e software novos com o legado, avaliar as inovações tecnológicas, não descuidar dos aspectos relativos à segurança, preocupar-se em reduzir e controlar custos, alinhar a TI com a estratégia de negócios da empresa, e comprovar os benefícios propiciados. Essas são apenas algumas das suas novas atribuições.

Gerir a TI na atualidade significa saber trabalhar as idéias e os problemas de modo a analisar a questão sob diferentes aspectos que se integram: os fatores estratégicos, funcionais, técnicos, tecnológicos e de custos. Também se torna importante saber administrar terceiros, uma vez que cresce a tendência de transferir boa parte das funções de TI para empresas externas e especializadas.

O gerente de TI deverá lidar mais intensamente com novos desafios como o grid computing, também chamado de utility computing e computação sob demanda – uma maneira de organizar os recursos de TI da mesma forma que as concessionárias públicas usam as redes elétricas para disponibilizar seus serviços.

O conceito, até agora mais usado em comunidades técnicas e científicas do que em negócios comercias, permite aos usuários compartilhar energia, armazenamento de dados, base de dados e outros serviços em tempo real. Essa tendência, no entanto, segundo afirmam os consultores de mercado, ainda levará de 10 a 15 anos para se tornar realidade. Abordaremos essa questão com maior profundidade nos demais módulos.

Alvin Toffler, consultor e jornalista norte-americano, autor de vários livros e respeitado como “futurólogo”, salienta que estamos vivendo o que convencionou chamar de Sociedade de Informação da Terceira Onda, em que o conhecimento passou a ser o ativo mais importante das empresas e não a produção. O desafio dos gestores em todo o mundo, segundo acredita, será o de criar redes de conhecimento capazes de interligar os elementos monetários de seus negócios aos fatores não-monetários, como a articulação da sociedade civil, que questiona o comportamento ambiental das empresas.

Toffler destaca três pontos-chave para a gestão do futuro. O primeiro deles é o efeito da velocidade, que significa a capacidade de acompanhar todas as informações que afetam direta ou indiretamente os negócios. O segundo é o efeito da complexidade, que implica em administrar a diversidade de necessidades criadas por uma sociedade informada, ou seja, a capacidade de oferecer produtos customizados para cada cliente. E, finalmente, o efeito da constelação, que se refere à capacidade de perceber as inúmeras redes que estão interligadas em um negócio. Isso não se restringe a identificar áreas de negócios, fornecedores e consumidores, mas também exige um cuidado especial com a estratégia, que precisa ser capaz de coordenar as várias pontas que compõem a atividade econômica.
foto abaixo fonte:http://www.virtue.com.br/blog/?m=200710

Princípios gerais da convergência                  

Os conceitos básicos da convergência, em especial a concepção de integração entre voz, dados e imagens em numa infra-estrutura fixa ou móvel.
A revolução nas comunicações interpessoais propiciada pelo boom da Internet na década de 90 trouxe uma série de conseqüências benéficas. A nova rede utilizava uma infra-estrutura de telecomunicações já montada e sua popularização fez com que tanto empresas quanto consumidores finais começassem a exigir mais de outros meios de comunicação e dela própria. Este foi o motor que impulsionou a convergência tecnológica, que reúne as capacidades de telecomunicações, agora estendidas, aos recursos de TI (Tecnologia da Informação).
O conceito convergência surgiu como forma de abrigar a aproximação entre os dois mundos, possibilitada também pela acelerada digitalização das operadoras de telecomunicações, com uma premissa idêntica à filosofia digital que rege os equipamentos e sistemas computacionais. Uma possível abordagem sobre a convergência se resume na reunião dos ambientes de dados, voz e imagens em um único dispositivo. Não é uma visão errada, mas redutora, assim como defini-la como a integração entre as telefonias fixa e celular.
Certamente a idéia inicial de convergência data muito antes dos anos 90, se contarmos as primeiras experiências de videotexto e posteriormente o uso da plataforma Frame Relay, então limitada. Porém, somente com a maior capacidade técnica dos equipamentos, a popularização da Internet e o conseqüente advento do protocolo IP (Internet Protocol) é que podemos começar a falar dos primeiros passos concretos do que chamamos atualmente de convergência.
O sonho da integração de vídeo, voz e dados em um mesmo meio e utilizando apenas um ambiente de transporte já é realidade. Hoje em dia, manter uma infra-estrutura de telecomunicações em paralelo a uma estrutura de dados pode ser considerado um erro tático ou mesmo um pensamento retrógrado. Afinal, são inúmeros os reflexos visíveis na economia de recursos, pessoal e tempo para administrar e manter em operação uma rede convergente.
Não se pode ainda esquecer a tendência de os pulsos telefônicos deixarem de existir ou de as novas redes transformarem uma ligação internacional ou interestadual em pulsos locais. Isto sem falar na possibilidade de realizar videoconferências com imagem e som perfeitos no mesmo meio em que trafegam dados e recursos de voz. Ou ainda usar telefonia IP, ter acesso à Web em aparelhos de telefonia móvel ou streaming vídeo em notebook com conexão sem fio, por exemplo. Ou seja, o número de aplicações possíveis é quase ilimitado.

Radiografia da infra-estrutura

Tecnicamente pode ser complexo pensar na integração total pregada pela convergência, em que as redes de telefonia fixa e celular se confundem com a infra-estrutura das tevês por assinatura e o cabeamento de fibras ópticas opera em sintonia total e de modo transparente para o consumidor. Ou, ainda, em que a estrutura física de empresas de energia elétrica ou de satélites de comunicação participe de forma transparente da malha, com todos os meios trabalhando como uma rede única e convergente. A convergência é possível pelas novas características técnicas dos equipamentos, em conformidade com a plataforma NGN (Next Generation Network ou Redes de Próxima Geração), que podem ser interpretadas como a integração das redes WAN (Wide Area Network), LAN (Local Area Network) e MAN (Metropolitan Area Network), respectivamente, rede corporativa de longa distância, rede local e infra-estrutura pública.
A união dos recursos e do tráfego permite o compartilhamento do gerenciamento da rede, a manutenção mais acurada dos equipamentos e o desenvolvimento de aplicações adequadas para o novo cenário. Como toda tecnologia nova, os padrões ainda são recentes, entre eles o MPLS (Multiprotocol Label Switching) e o IPv6. Outra questão complexa é a migração dos sistemas legados – aqueles que a empresa já possui – para as novas plataformas NGN. Esse problema não afeta várias operadoras de telecomunicações brasileiras que, por terem partido do zero na montagem de suas redes, já são NGN ou estão bem próximas disso.
Já as operadoras que ainda possuem infra-estrutura pré-convergência estão com seus circuitos congestionados. Suas redes foram criadas para transmissão de voz e tomadas de assalto primeiro pelo mundo da Internet e agora pela nova filosofia de conexão. A transição a ser feita por elas é transformar os circuitos baseados em tempo de chamada para trafegarem sinais de dados em pacotes, o que pode ser feito através de novos equipamentos e de sistemas baseados em IP.
A balança de consolidação da convergência pende para a transformação das operadoras de telecomunicações em prestadoras de serviço e conteúdo, o que pode ocasionar no futuro uma mudança na regulamentação do setor, de acordo com o crescente peso dos clientes corporativos e sua demanda por novos serviços integrados.

Mundo sem fio

Além de conjugar as aplicações de voz, dados e imagem, a convergência tem como premissa a conjunção das redes, sejam elas sem fio ou cabeadas. Comentando as perspectivas da convergência no mundo wireless, Bill Gates, fundador da Microsoft, propôs a interligação sem fio de computadores com as tevês, como forma de exemplificar a seamless computing (computação sem emendas), ou a capacidade moderna de interligação entre dispositivos e equipamentos.
Como dispositivos wireless, podemos admitir de notebooks a telefones celulares e handhelds – até o caminho de transformar objetos do dia-a-dia, como fogões, geladeiras, etc., em aparelhos conectados e com recursos de voz, dados e imagem. Esse cenário não é um exercício de ficção. Assim como é cada vez mais rotineiro ver imagens e enviar fotos por meio de celulares, em um futuro próximo as tevês e outros aparelhos domésticos também terão essa capacidade.
E isto independe se o serviço é suportado por sistemas integralmente wireless, com apoio de redes cabeadas em algum momento, ou ainda que façam uso de satélites. O que serve não só para descongestionar as infra-estruturas atuais como barateia os serviços devido à diminuição do investimento necessário para a implementação.

O cenário convergente

Segundo estimativas das operadoras, a implementação de redes convergentes pode reduzir os custos de telecomunicações e TI em algo como 40% ou até mais, de acordo com o projeto e sua extensão. A economia maior está na manutenção e na equipe de gerenciamento, e estima-se acelerada redução de custos, se comparados ao modelo tradicional, associado às redes antigas, e tendo em vista a perspectiva de aumento de receitas e lucros com o lançamento de serviços diferenciados e mais baratos.
Outros gastos podem acabar encolhendo e propiciando uma boa economia, como em uma empresa com ampla cobertura geográfica que utiliza chamadas de longa distância. Afinal, com a introdução de uma aplicação de VoIP (voz sobre IP) ou FoIP (fax sobre IP), os preços dos interurbanos de voz e fax caem drasticamente pela tarifação como uma ligação local. Estudos de mercado apontam que 70% dos custos de envio de fax entre Estados Unidos e Ásia podem ser reduzidos com a adoção de FoIP, ao usar a infra-estrutura da mesma forma que a Internet, localmente.
Em comum, os serviços terão uma interface padronizada para os diferentes meios de recepção, sejam eles um telefone celular, uma tevê de plasma ou o computador. Pelo menos essa é a promessa da indústria. Enquanto isso, surgem modalidades de serviço que conjugam o melhor da oferta de serviços da convergência com a terceirização.
É o caso da Telefônica, que empacotou algumas aplicações de dados e vídeo, cuidando da segurança convergente do cliente e até mesmo sublocando PABX IP ou emulando remotamente o serviço. A maior demanda, no entanto, é por VoIP, tanto na plataforma Frame Relay quanto IP - com a definição técnica realizada por uma equipe de consultores da operadora.

Evolução do mercado

Não é errado afirmar que a transmissão de dados e imagens ainda tem uma receita marginal para as operadoras, em alguns casos de 10% do faturamento total. Porém, alguns estudos internacionais apontam que os serviços convergentes serão 60% do bolo até 2008. É um mercado que, segundo estudo da McKinsey, deve crescer anualmente a taxas de 60%, até representar um total de US$ 1 trilhão em 2010 – englobando a convergência como a conhecemos hoje e somando novos recursos advindos da biotecnologia (chips orgânicos) e da nanotecnologia (miniaturização de componentes).
Normalmente, a transição de ambientes rumo a um cenário convergente passa pela substituição da banda estreita pela banda larga; da evolução da infra-estrutura analógica pela digital; da substituição da comunicação fixa por móvel; da instalação de um ambiente mais competitivo de serviços; e da utilização em larga escala do protocolo IP, o que significa a mudança de comutação por circuitos para a transferência de pacotes.
No Brasil, são boas previsões de crescimento econômico e a oferta de serviços convergentes está em alta. As soluções convergência são uma forma de as operadoras de telefonia fixa melhorarem seus balanços e fidelizar os clientes corporativos, e um meio de as carriers celulares se diferenciarem uma das outras.
Fonte: http://www.nextgenerationcenter.com/V3/web/curso.php?curso_id=22&modulo_id=224