Nothing Special   »   [go: up one dir, main page]

Saltar para o conteúdo

Lei de Amdahl

Origem: Wikipédia, a enciclopédia livre.
O speedup de um programa usando múltiplos processadores em computação paralela é limitado pela fração sequencial do programa. Por exemplo, se 95% do programa pode ser paralelo, teoricamente o speedup máximo usando computação paralela seria 20× como apresentado no diagrama, não importando quantos processadores estão sendo usados.

A lei de Amdahl, também conhecida como argumento de Amdahl,[1] é usada para encontrar a máxima melhora esperada para um sistema em geral quando apenas uma única parte dele é melhorada. Isto é frequentemente usado em computação paralela para prever o máximo speedup teórico usando múltiplos processadores. A lei possui o nome do Arquiteto computacional Gene Amdahl, e foi apresentada a AFIPS na Conferência Conjunta de Informática na primavera de 1967.

O speedup de um programa usando múltiplos processadores em computação paralela é limitado pelo tempo necessário para a fração sequencial de um programa. Por exemplo, se o programa precisa de 20 horas usando um único núcleo de processamento, e a parte específica de um programa que demora uma hora para executar não pode ser paralelizado, enquanto as 19 horas restantes (95%) do tempo da execução pode ser paralelizado, independente de quantos processadores são dedicados a execução paralela deste programa, o tempo de execução mínima não pode ser menor que aquela crítica uma hora. Por isso o aumento de velocidade é limitado em no máximo 20x.

Speedup pode ser definido como a relação entre o tempo gasto para executar uma tarefa com um único processador e o tempo gasto com N processadores, ou seja, Speedup é a Medida do ganho em tempo.

Onde 'S' é o speedup e 'T'(N) é o tempo gasto para 'N' processadores

Fórmulas:

  • , fração de um algoritmo estritamente serial,

O tempo que um algoritmo demora para terminar a execução utilizando thread(s) de execução, corresponde a:

Portanto,o speedup teórico que pode ser obtido pela execução de um dado algoritmo, em um sistema capaz da execução de threads de execução, é:

A Lei de Amdahl é um modelo de "speedup esperado" sobre a relação entre implementação paralelizada de um algoritmo e sua implementação sequencial, sob a suposição de que o tamanho do problema continua a ser o mesmo quando paralelizado. Por exemplo, se para um determinado problema de execução em paralelo de um algoritmo, pode ser executado apenas 12% das operações do algoritmo deste modo (enquanto os restantes 88% das operações não são paralelizável), a Lei de Amdahl afirma que o speedup máximo da versão paralelizada é 1/(1 – 0.12) = 1.136 vezes mais rápido que uma versão não paralelizada.

Mais tecnicamente, a lei se dedica ao aumento do speedup realizável com um melhoramento do cálculo que afeta a proporção "P" de um cálculo onde o melhoramento tem um speedup de “S”. (Por exemplo, se 30% do cálculo pode ser objeto de um melhoramento da velocidade, “P" será 0.3, se o melhoramento fizer a porção afetada duas vezes mais rápida, “S" será 2). A Lei de Amdahl afirma que o aumento do speedup aplicando o melhoramento será:

Para ver como essa fórmula foi derivada, assume-se que o tempo de execução do antigo cálculo era 1, por alguma unidade de tempo. O tempo de funcionamento do novo cálculo será a duração da fração não melhorada (que é 1 − ‘’P"), mais a duração da fração de tempo melhorada. O período de tempo para a parte melhorada do cálculo é a duração do tempo de execução das partes melhoradas dividida pelo speedup, ou seja “P”/“S". O speedup final é calculado pela divisão do antigo tempo de duração pelo novo tempo de duração, que é a função da fórmula acima.

Aqui, outro exemplo, nos é dado uma tarefa sequencial que é dividido em quatro partes consecutivas: P1, P2, P3 e P4 com as porcentagens de tempo de execução começando em 11%, 18%, 23% e 48% respectivamente. Em seguida, houve a informação que P1 não é acelerado, então S1 = 1, enquanto P2 é acelerado 5x, P3 é acelerado 20x, e P4 é acelerado 1.6x. Utilizando a fórmula P1/S1 + P2/S2 + P3/S3 + P4/S4, então encontra-se uma nova execução sequencial, que é:

ou um pouco menos que 12 do tempo de execução original. Usando a fórmula (P1/S1 + P2/S2 + P3/S3 + P4/S4)−1, o aumento de velocidade geral é 1 / 0.4575 = 2.186, ou seja, um pouco mais que o dobro da velocidade original. Note como o aumento de 20x e 5x não possui muito efeito sobre a velocidade total quando P1 (11%) não é acelerado, e P4 (48%) é acelerado apenas 1.6 vezes.

Paralelização

[editar | editar código-fonte]

No caso da paralelização, a lei de Amdahl afirma que ‘'P" é a proporção de um programa que pode ser feito paralelamente (i.e, benefício da paralelização), e (1 - P) é a proporção que não pode ser paralelizada (permanece serial), o speedup máximo que pode ser atingido usando ‘'N" processadores é

.

No limite, como ‘'N" tende ao infinito, o speedup máximo tende ser 1 / (1 - ‘’P’). Na prática, o desempenho à relação preço cai rapidamente como N é aumentada uma vez que há mesmo um pequeno componente de (1 - P).

Como exemplo, se “P" é 90%, então (1 - “P”) é 10%, e o problema pode ser acelerado por um fator máximo de 10, não interessa o quão grande o valor usado para “N”. Por essa razão, computação paralela é apenas útil para qualquer pequeno número de processadores, ou problemas com valores muito grandes de “P”: chamado "problemas embaraçosamente paralelos". Uma grande parte do ofício de programação paralela consiste em tentar reduzir o componente (1 - P) para o menor valor possível.

"P" pode ser estimada por meio do aumento de velocidade (SU) sobre um número específico de processadores (NP) usando:

.

P estimado desta forma pode então ser utilizado na Lei de Amdahl para prever o aumento de velocidade para um número diferente de processadores.

Relação à lei dos rendimentos decrescentes

[editar | editar código-fonte]

A lei de Amdahl é muitas vezes confundida com a lei dos rendimentos decrescentes, enquanto apenas um caso especial da aplicação da Lei de Amdahl se comporta como esta. Se alguém pega ótimamente (em termos de speed-up alcançado) o que melhorar, então verá melhorias monotonicamente decrescentes. Se, no entanto, pega algo não-ideal, depois de melhorar um componente sub-ótimo e seguir em frente para melhorar o componente não-ideal, pode-se ver um aumento no retorno. Note-se que muitas vezes é racional para melhorar um sistema numa ordem que é "não-ótima", melhorias que são mais difíceis, ou que consomem mais tempo de desenvolvimento do que os outros.

Lei de Amdahl representa a "lei de rendimentos decrescentes" se você está considerando qual ordem de retorno que você obterá adicionando mais processadores a uma máquina, se você estiver realizando uma executação em computação de tamanho fixo que vai usar todos os processadores disponíveis para a sua capacidade. Cada novo processador que você adicionar ao sistema irá aumentar menos o poder de execução do que o anterior. Cada vez que você dobrar o número de processadores a relação de aumento de velocidade vai diminuir, como a taxa de transferência total para o limite de .

Esta análise negligencia outros gargalos potenciais, tais como banda de memória e largura de banda de I/O, se eles não se ajustarem junto ao número de processadores; no entanto, tendo em conta esses gargalos tenderia a demonstrar ainda mais os retornos decrescentes por acrescentar apenas processadores.

Speedup em um programa sequencial

[editar | editar código-fonte]
Supõe-se que uma tarefa possui duas partes independentes, A e B. B utiliza 25% do tempo da execução completa. Ao trabalhar arduamente, um pode ser capaz de executar sua parte 5x mais rápido, mas isto só reduz um pouco o tempo de toda a execução. Em contrapartida, um pode precisar de menos esforço para fazer a parte A duas vezes mais rápida. Isto fará a execução muito mais rápida do que otimizar a parte B, mesmo que a velocidade de B seja maior na relação, (5× versus 2×).

O speedup máximo de um programa sequencial melhorado, onde uma parte foi acelerada vezes, é limitada pela irregularidade.

onde () é a fração de tempo (antes do melhoramento) gasto na parte que não foi melhorada. Por exemplo (veja a figura ao lado direito):

  • Se a parte B é executada cinco vezes mais rápida (), , , e , então
  • Se a parte A é executada duas vezes mais rápida (), , , e , então

Portanto, tornando A duas vezes mais rápido é melhor que tornar B cinco vezes mais rápido. A porcentagem de melhoria da velocidade pode ser calculada como:

  • Melhorando a parte A por um factor de dois irá aumentar a velocidade global do programa por um factor de 1,6, o que faz com que seja 37,5% mais rápido do que o cálculo inicial.
  • No entanto, a melhoria da parte B por um fator de cinco, que, presumivelmente, exige mais esforço, só irá atingir um fator de aceleração geral de 1,25, o que o torna 20% mais rápido.

A lei de Amdahl só se aplica aos casos em que o tamanho do problema está corrigido. Na prática, como mais recursos de computação se tornam disponíveis, eles tendem a se acostumar com problemas maiores (maiores conjuntos de dados), e o tempo gasto na parte paralelizável geralmente cresce muito mais rápido do que o trabalho inerentemente seqüencial. Neste caso, lei de Gustafson dá uma avaliação mais realista do desempenho paralelo.[2]

  1. (Rodgers 1985, p. 226)
  2. Michael McCool; James Reinders; Arch Robison (2013). Structured Parallel Programming: Patterns for Efficient Computation. [S.l.]: Elsevier. 61 páginas 

Leitura complementar

[editar | editar código-fonte]

Ligações externas

[editar | editar código-fonte]
O Commons possui uma categoria com imagens e outros ficheiros sobre Lei de Amdahl