Início > Cloud Computing, Linha do Tempo > História do Cloud Computing

História do Cloud Computing

12/05/2010

Resumo da história recente do Cloud Computing ( linha do tempo, evolução do Cloud Computing – Computação em Nuvem )

A histório do Cloud Computing esta sendo escrita, portanto o estudo deste tema tambem será muito proveitoso nos capítulos de conceitos, “direto do vale” e tendencias. Estamos ainda no início desta história, a cada dia vemos muitas novidades.

De um computador para uma grade de muitos :

Duas décadas atrás, computadores eram agrupados para formar um só supercomputador com grande capacidade de processamento. Esta técnica foi comum entre muitos departamentos de TI. Clustering, como era conhecido, permite configurar computadores usando um protocolo especial para que cada um possa conversar com os demais. O propósito era balancear a carga de processamento em diversas máquinas, dividindo-as em unidades de trabalho e multiplicando processadores.

Para o usuário, é um pouco distinto na execução de um aplicativo no CPU. O software de gestão de Cluster assegura ao CPU uma maior capacidade de processamento no momento em que é usado para rodar um aplicativo ou código. E a chave para uma gestão eficiente é a engenharia por detrás onde o dado é executado/ realizado. Este processo ficou conhecido como data residency. Computadores agrupados eram usual e fisicamente conectados em discos magnéticos que armazenavam o dado, enquanto CPU’s realizavam processos de input/ output (I/O) rapidamente e com eficiência.

No começo dos anos 90, Ian Foster e Carl Kesselman apresentaram o conceito do ‘The Grid’ (‘A grade’), fazendo uma analogia com a grade de eletricidade, em que os usuários poderiam se ‘plugar’ e utilizar um serviço mais calibrado. Eles pensaram que se as companhias não podem gerar suas próprias cadeias de energia, deveriam assumir a compra de serviço de terceiros que seja capaz de proporcionar um fornecimento de eletricidade constante. Então, ele se perguntaram: “Por que não aplicar o mesmo conceito para as fontes da computação?” Se um computador poderia se plugar em uma grade de computadores e somente pagar pelos recursos utilizados, trará uma solução de maior custo-benefício para as companhias do que comprar e gerenciar suas próprias infra-estruturas. Grid Computing se expande sob as técnicas utilizadas no modelo de Clustered Computing, em que os múltiplos clusters independentes aparecem para atua como uma grade simples porque não possuem o mesmo domínio.

O maior obstáculo para superar a migração do modelo de clusters para Grid Computing foi o processo de data residency, porque com natureza de distribuição da grade, nódulos computacionais poderiam estar em qualquer parte do mundo. Paul Wallis explicou a questão do data residency para o modelo de grade dessa forma:

“It was fine having all that CPU power avaible, but the data on which th CPU performed its operational could be thousands of miles away, causing a delay (latency) between data fetch and execution. CPU’s need to be fed and watered with different volumes os data depending on the tasks they are processing. Running a data-intensive proces with disparate data sources can create a bottleneck in the I/O, causing the CPU to run inefficiently, and affecting economic viability”.[1]

As questões de gestão do armazenamento, migração da dados e segurança foram chaves para qualquer solução proposta de sucesso do modelo de grade. Um kit chamado de Globus foi criado para resolver estas questões, mas a infraestrutura de hardware disponível ainda não progrediu para o nível que um verdadeiro Grid Computing pode alcançar.

O Globus Toolkit, desenvolvida e mantida pela Globus Alliance e outras comunidades de organizações tecnológicas para o modelo de Grid, é uma fonte aberta de software usada para construir sistemas de grade e aplicativos. Este kit permitiu que pessoas pudessem compartilhar banco de dados, instrumentos e outras ferramentas online de forma segura alem dos limites geográficos, institucionais e corporativos sem sacrificar a autonomia local.

Entidades ligadas ao Cloud Computing, como prestadoras de data centers, têm utilizado do conceito de Grid Computing em ofertas de serviços para outras organizações que não querem suas infra-estruturas carregadas mas que querem sim as capacidades presentes nestes data centers. Um dos mais famosos provedor de serviços de Cloud Computing é a Amazon S3 (Simple Storage Service), sendo um grande receptor de armazenamento para a Internet. De acordo com o site da Amazon S3[2], se trata de um serviço simples de interface pela rede que pode ser utilizado para armazenar e executar grupos de dados, a qualquer hora, de qualquer lugar. Dá ao desenvolvedor o acesso a uma infraestrutura de armazenamento de dados em escala, confiável, rápida e barata que a própria Amazon utiliza em seus outros sites.

Em 2002, EMC oferece uma solução de armazenamento, baseada em Content Addressable Storage (CAS), chamada de Centera e que compete com o serviço da Amazon. O produto da EMC cria uma rede global de data centers, com uma massiva capacidade de armazenar em cada data center. Quando um usuário cria um documento, o servidor o envia para o sistema de armazenamento da Centera, que retorna ao servidor o endereço de um conteúdo único. Este endereço permite ao sistema verificar a integridade do documento quando um usuário decidir movê-lo ou copiá-lo. A partir deste ponto, o aplicativo pode solicitar o documento submetendo o endereço. A duplicidade de documentos é apenas realizada baixo o mesmo endereço, com a finalidade de reduzir os requisitos do armazenamento. Assim, o Centera recupera documentos, independentemente de onde possam estar fisicamente localizados.

O Centera da EMC tem uma abordagem sensata de não se correr o risco de colocar todos os seus dados em um único lugar, de modo que os dados são distribuídos ao redor do globo.

[1] – Paul Wallis, “Keystones and Rivets”.

[2]http://aws.amazon.com/s3

Anúncios