Crédito:Victorgrigas / Wikideia / CC BY-SA 3.0
Em sua dissertação de doutorado na Universidade de Umeå, Jakub Krzywda desenvolveu modelos e algoritmos para controlar as compensações entre o consumo de energia das infraestruturas de nuvem e o desempenho dos aplicativos hospedados para permitir uma operação segura e eficiente com um orçamento de energia limitado.
Infraestrutura de computação em nuvem, que mantém a maioria dos serviços de Internet, como o Google, Facebook e Amazon instalados e funcionando, consomem grandes quantidades de energia, e, assim, agravar a mudança climática.
Interessantemente, sob algumas condições específicas, um data center em princípio não é muito diferente de uma casa com uma instalação elétrica antiga. A maioria das pessoas provavelmente se lembra de um caso em que ligar muitos aparelhos simultaneamente desarmou um disjuntor. Isso acontece porque a instalação elétrica não foi projetada para sustentar tal alta oscilação de energia.
Em data centers modernos, a infraestrutura de fornecimento de energia, que fornece eletricidade a todos os servidores, é frequentemente subprovisionado propositalmente. Nesse caso, ele é incapaz de sustentar a oscilação de energia de todos os servidores em execução em sua velocidade total. À primeira vista, parece um planejamento ruim, mas na prática, quase nunca acontece que o poder de computação de todos os servidores seja necessário ao mesmo tempo. Uma vez que o custo da infraestrutura de fornecimento de energia é proporcional ao pico de energia que ela pode sustentar, colocar um limite nisso ajuda os operadores de data center a economizar dinheiro que, de outra forma, seria gasto em infraestrutura que quase nunca é necessária.
Contudo, "quase nunca" não é suficiente no setor de nuvem. Muitos provedores de nuvem prometem a seus clientes que a infraestrutura estará disponível 99,99 por cento do tempo - permite apenas 52 minutos de inatividade por ano.
E é aqui que entram as contribuições desta tese:Qual é a melhor maneira de lidar com as operações do data center quando não há energia suficiente disponível para executar todos os aplicativos em sua velocidade total? Os operadores devem desligar aplicativos menos importantes completamente, ou forçar todos eles a desacelerar? Alguns tipos de aplicativos são candidatos melhores para degradação normal do desempenho? Que ações devem ser tomadas para garantir que o consumo de energia seja reduzido, mas os aplicativos ainda produzam resultados úteis? Quais técnicas devem ser usadas para fazer cumprir isso?
"Para responder às perguntas acima mencionadas, nesta tese, Desenvolvi modelos para capturar as relações entre o consumo de energia e o desempenho do aplicativo, e propôs um conjunto de controladores de orçamento de energia que atuam na aplicação, servidor, e todos os níveis do data center para minimizar a degradação do desempenho enquanto impõe limites de energia, "diz Jakub Krzywda.
Os resultados incluídos na tese têm aplicações práticas, por exemplo, um conjunto de recomendações para o uso de técnicas de software disponíveis em servidores modernos que podem permitir que as operadoras de data center executem suas infraestruturas usando menos energia, garantindo ainda que seus clientes estejam satisfeitos com o desempenho dos aplicativos.
Os resultados e análises apresentados nesta tese podem ser usados por operadores de data center para melhorar a eficiência de energia dos servidores e reduzir os custos operacionais gerais, minimizando a degradação do desempenho. Todo o software produzido durante este trabalho, incluindo códigos-fonte de modelos, controladores, e simuladores, foi de código aberto e disponibilizado online para facilitar sua implantação em centros de dados industriais e de pesquisa.