AESPI – Associação de Ensino Superior do Piauí FPPD – Faculdade Piauiense de Processamento de Dados Tecnologia de Processamento de Dados
CLUSTERS DE ALTO DESEMPENHO
Professora: Andréa Pádua Teresina - 2014
EQUIPE: Lopes Sérgio Jailson Natanael Virgilio Luís Erik Icaro
2
CLUSTERS DE ALTO DESEMPENHO
O funcionamento básico de um cluster de alto desempenho pode ser exemplificado da seguinte forma: dado um problema, que possa ser divido em partes menores (“ser paralelizado”). Um servidor fica responsável por dividir o problema em várias partes e enviar para os respectivos nós. Esses, por sua vez, acham a solução e respondem ao servidor, que junta às respostas e disponibiliza para o usuário. (GORINO, 2006).
3
CLUSTERS DE ALTO DESEMPENHO
Um Cluster de computadores pode ser visto como uma solução alternativa para universidades e empresas de pequeno a médio porte, para obterem processamento de alto desempenho na resolução de problemas através de aplicações paralelizáveis, a um custo razoavelmente baixo se comparado com os altos valores necessários para a aquisição de um supercomputador da mesma classe de processamento (PITANGA, 2008).
4
CLUSTERS DE ALTO DESEMPENHO
De acordo com Pitanga (2008), as características principais dos clusters são: alto desempenho, escalabilidade, tolerância a falhas, baixo custo e independência de fornecedores, a saber;
5
CLUSTERS DE ALTO DESEMPENHO Alto Desempenho: Capacidade de resolver problemas complexo utilizando o poder computacional gerado pelo processamento paralelo, de forma que o tempo de resolução de uma atividade seja reduzido a valores consideráveis; Escalabilidade: Característica que permite a possibilidade de expansão do cluster a media que for necessário o crescimento do poder computacional, o cluster pode ser facilmente adicionado com recursos;
6
CLUSTERS DE ALTO DESEMPENHO Tolerância a falhas: quanto maior o sistema, maior será sua confiabilidade com um todo. Caso uma parte falhe, outro executará sua tarefa: Baixo custo: devido a sua implementação ser feita com PC’s simples, o custo é relativamente menor se comparado com o custo de computadores de grande porte: Independência de fornecedores: utilização de Hardware aberto, software de uso livre e independência de fabricantes e licenças de uso.
7
CLUSTERS DE ALTO DESEMPENHO
Entre os principais objetivo dos projetos de clusters de alto desempenho, em geral, está a busca pelo aperfeiçoamento do processamento e a melhoria na distribuição de tarefas entre os nós integrantes do sistema. Para os clusters de alto desempenho, outra necessidade é que o sistema deve parecer para o usuário final como um único computador ou a soma dos recursos individuais de todos os nós pertencentes ao cluster. 8
CLUSTERS DE ALTO DESEMPENHO
Um exemplo de cluster de alto desempenho é o cluster Beowulf mostrados a seguir. O cluster do tipo beowulf surge na historia como uma necessidade de elevar o processamento em diversas áreas cientificas com o objetivo de compor os sistemas computacionais de alto desempenho e com viabilidade econômica. 9
CLUSTER BEOWULF
10
ARQUITETURA BEOWULF
DE
UM
CLUSTER
O Cluster HPC é um tipo de sistema para processamento paralelo ou distribuído que consiste de uma coleção de computadores interconectados, trabalhando juntos como um recurso de computação simples e integrado. Um nó do cluster pode ser um simples sistema: multiprocessador (PC’s, estações de trabalho ou SMPs) com memória, dispositivos de entrada/saída de dados e um sistema operacional. No entando, esse sistema pode fornecer características e benefícios (serviços rápidos e confiáveis).
11
ARQUITETURA DE UM CLUSTER BEOWULF
Encontrados somente em sistemas com memória compartilhada (multiprocessadores simétricos – SMP), como os supercomputadores. A arquitetura típica de um cluster é mostrada na figura:
12
COMPONENTES BEOWULF
DO
CLUSTER
Entre elas pode-se destacar os seguintes componentes: Nó controlador (Servidor Mestre): controla a istração e distribuição das tarefas entre seus clientes também chamados de escravos. Este membro é responsável pela interface de conexão com o lado externo do sistema de o de clientes e usuários finais do software. Portanto, ele está em um ponto crítico, pois controla tanto a segurança do sistema, quanto as suas ligações de front-end. Comumente é utilizado somente um servidor do tipo mestre.
13
COMPONENTES BEOWULF
DO
CLUSTER
Nós Escravos: definido como a parte do sistema que não podem ser ado pela rede externa. Normalmente, não possui nem mesmo dispositivos de o local a eles, são controlados pelo nó controlador e ficam a disposição do mestre para executar tarefas de processamento que lhes são enviadas pela rede. Rede dedicada: Esta parte é a rede de alta velocidade que interliga o nó controlador aos nos escravos.
14
COMPONENTES DO CLUSTER BEOWULF
15
VANTAGENS E DESVANTAGENS DE UM CLUSTER BEOWULF Considerando-se que o desempenho de um cluster Beowulf pode ser a mesma de (ou maior que) um supercomputador, sem dúvida a maior vantagem é o preço (Ruiz, 2011) Depois cita-se a manutenção barata e também o alto nível de experiência que já foi atingido por cientistas que trabalham nesta área e estão dispostos a compartilhar este conhecimento com outras pessoas (Ruiz, 2011)
16
VANTAGENS E DESVANTAGENS DE UM CLUSTER BEOWULF Quanto às vantagens de um cluster podemos segundo Marcus (2006), citar: Estes sistemas são muito escaláveis, pois é possível pôr em rede (e coordenar) um grande número de nós. Assim. Não existe um limite definido para o tamanho de um cluster. Os Componentes utilizados são maciçamente comercializados e que desta forma pode-se usufrui economias de escala.
17
VANTAGENS E DESVANTAGENS DE UM CLUSTER BEOWULF Substituir um nó defeituoso é tão simples quanto mudar de PC. Assim, é possível ter uma gestão de falhas eficiente, baseada na fácil substituição de componentes. Existe uma independência em relação ao fornecedor de hardware. Como o material que o constitui é muito comum, se faltar uma peça pode-se encontrá-la com facilidade. Existem também mais especialistas em PC’s do que de Hardware proprietário.
18
VANTAGENS E DESVANTAGENS DE UM CLUSTER BEOWULF
O Software é gratuito e inclui o código fonte. Por essa razão é mais flexível permitindo alterações tanto ao nível do sistema operacional. Como das aplicações utilizadas. Disponibilizar o código fonte torna o sistema mais robusto e de confiança,
pois
significa
que
quem
estiver
interessado pode fazer debuggins, detectar erros e gerar correções.
19
VANTAGENS E DESVANTAGENS DE UM CLUSTER BEOWULF
Cada nó do cluster pode ser um sistema completo, útil para uma grande variedade de aplicações. Assim. O risco de um projeto de cluster não resultar em nada é sempre reduzido pelo fato de todo o hardware poder ser reutilizável. Da mesma forma, toda a configuração pode ser utilizada (e testada) para outros fins. 20
DESVANTAGENS NO CLUSTER BEOWULF
USO
DE
Com algumas exceções, o Hardware de rede não foi criado para funcionar em processamento paralelo. Tipicamente tem uma grande latência e largura de banda menor que sistemas SMP. Existe ainda pouco software que e e trate o cluster como um sistema único. Por exemplo, o comando ps, do sistema operacional Linux só dá informação sobre processos sendo executados em um único nó do cluster. 21
DESVANTAGENS NO CLUSTER BEOWULF
USO
DE
É necessário ter experiência e conhecimento de istração de sistemas Linux. A configuração dos nós pode não ser muito trivial. Apesar de algumas desvantagens, clusters são surpreendentemente poderosos. Há uma inscrição semestral reunida pela universidade de Manhiem na Alemana que descreve os 500 supercomputadores mais poderosos do mundo (Top 500, 2011) 22
DESVANTAGENS NO CLUSTER BEOWULF
USO
DE
Até 1997, quase todos os sistemas listados eram supercomputadores comerciais de fabricantes famosos como: Cray, Silicon Graphics e IBM. Porém em 1998, começaram a aparecer nesta lista Clusters paralelos baseados em Linux. Dois sistemas se localizam perto do topo da lista: o número 97, chmado “lant” desenvolvido por Sandia National Labs, e o número 113, chamado “Avalon” desenvolvido por Los Alamos Labs. O avalon é um cluster de 140 máquinas Alpha 533 mhz, localizado no laboratório Nacional de Los Alamos, nos Estados Unidos, e custou uma fração do preço de seus concorrentes.
23
CLUSTER ADAMASTOR
24
CLUSTER ADAMASTOR
O Adamastor é um cluster do tipo Beowulf, encontra-se
instalado
no
Departamento
de
Ambiente e Ordenamento. É a principal unidade de computação utilizado pelo Grupo de Emissões Modelação e Alterações Climáticas, e é utilizado principalmente para a modelação da qualidade do ar. 25
CLUSTER ADAMASTOR Hardware: 1 nó de Gestão u Intel Core i7 3930K (hexa core @ 3,2 GHZ) 32 GB RAM Gskill Ripjaws Z DDR3 1866 MHZ 1 SSD Corsair Force Series 3 180 GB Motherboard Asus P9X79 Deluxe 25 nós de computação u Intel core 2 Q9550 (quad core @ 2,83 GHZ) 4 GB RAM Kingston DDR2 800 MHZ 1 HDD Sata 2 160 GB
26
CLUSTER ADAMASTOR Armazenamento: 1 Array box Infortrend Eonstor A16U - G2421 com 16 x 2 TB Hitachi Sata 3 em raid 5 1 Array box Infortrend Eonstor A16S - G2130 com 16 x 2 TB Samsung Spinpoint F3 Sata 2 em raid 5 1 nó de arquivo u Intel dual core 6 GB RAM DDR2 800 MHz 30 TB storage em raid 5 2 NIC 10/100/1000 Mb 2 nós de redundância
27
CLUSTER ADAMASTOR O Cluster Adamastor tem um total de: 106 núcleos de processamento 132 GB de memória RAM 190 TB de armazenamento
28
CLUSTER ADAMASTOR Software: Sistema operativo: Linux Ubuntu 9.04 Compilador: Portland Fortran PGF77 Visualização: IDL 7.01 Aplicações: Modelos de qualidade do ar Modelos de emissões de poluentes atmosféricos Modelos meteorológicos Sistema numérico de previsão da qualidade do ar
29
TIPO DE REDE UTILIZADA EM UM CLUSTER BEOWULF
Um cluster é um tipo de sistema de processamento paralelo, que consiste num conjunto de computadores (nós), interligados entre si, funcionando de uma forma integrada como se fosse um único sistema de computação. Um nó de um cluster pode ser um sistema monoprocessador ou multiprocessador, PC, Workstation ou SMP. Com memória, facilidades de I/O e sistema operacional, os clusters Beowulf em particular são pilhas de PCs, consistindo no mínimo em dois ou mais nós (PCs) interligados através de uma rede local privada. Utilizam-se dois segmentos Ethemet para interligar os nós.
30
TOP 10 – SUPERCOMPUTADORES JUNHO DE 2014.
31