Estação de trabalho para deep learning em 2022 – hardware necessário

É crescente a demanda por hardware especializado para projetos de inteligência artificial. O ano de 2022 está chegando e novas versões de hardware estão sendo anunciadas pelos fabricantes, não apenas no segmento popular, mas também na supercomputação. Por exemplo, a Tesla recentemente  apresentou o chip FSD (Full Self Driving Computer) que irá potencializar o supercomputador DOJO (estimado a superar a barreira exaflop de processamento) no mesmo ano em que o Google anunciou sua nova versão de TPU (TPU v4) com o dobro da performance da versão anterior, permitindo que um único pod de 4096 chips TPU v4 alcancem mais de 1 exaflop de performance, de acordo com Sundar Pichai.

Não obstante tamanha inovação, hardwares especializados para computação deep learning estão ganhando tração no mercado, como a computação fotônica. A empresa Lightmatter, por exemplo, já introduziu no mercado chips que operam com mais eficiência e velocidade do que as arquiteturas de silício utilizadas em GPUs tradicionais da NVIDIA.

Contudo, para um estudante de deep learning, é necessário começar a jornada da aceleração de hardware aos poucos. Primeiramente, é fundamental compreender a vantagem entre processamento paralelo em GPU quando comparado a CPU. Fundamentalmente as arquiteturas são bastante diferentes, pois enquanto a CPU é um hardware de propósito geral, as GPUs são específicas para operações onde é necessário bastante paralelismo. Isso fica claro quando o estudante está realizando cursos de machine learning ou obtendo especializações em faculdades. Em algum momento, um notebook simples não consegue mais atender às necessidades. Como as GPUs conseguem entregar mais processamento paralelo? As GPUs possuem núcleos shader que funcionam como pipeline flexível para operações matemáticas. A AMD nomeou os núcleos shader de processadores de fluxo, enquanto a NVIDIA batizou-os de núcleos CUDA. O principal componente do núcleo shader é a unidade lógica aritmética (ALU), que constituem os elementos mais fundamentais para as operações matemáticas em um núcleo shader. Essa arquitetura, utilizando memória vRAM para armazenamento cache, permite que GPUs apresentem milhares de núcleos, enquanto as CPUs trabalham com dezenas.

Graças a essa maior capacidade, problemas antes inatingíveis para CPUs tornaram-se possíveis de serem resolvidos com GPUs. Alguns exemplos datasets que permitem um imenso ganho de performance ao utilizar GPU são problemas de processamento de linguagem natural (utilizando grandes modelos transformers como GPT-2, BERT, T5 entre outros), processamento de imagens (principalmente segmentação de instâncias, como a rede Mask R CNN), processamento de áudio (exemplo: Wavenet) e redes generativas adversariais (GANs). É impensável trabalhar com essas aplicações sem possuir ao menos uma GPU RTX 2080 Ti, como a GeForce da imagem abaixo:

GPU RTX 2080 Ti NVIDIA

RTX 2080 Ti na embalagem

Pensando no futuro, uma placa mãe deve poder abrigar mais GPUs em paralelo. É comum encontrar placas de 3 slots PCIe, mas ter ao menos 4 slots pode oferecer uma boa vantagem de processamento. A placa AORUS Master X299, por exemplo, é uma boa escolha:

placa mãe AORUS com 4 slots PCIe

Uma vez montada a estação de deep learning, será necessário uma PSU com potência suficiente. Pensando em 4 GPUs RTX 2080 Ti e uma CPU intel i9-9920X de 12 núcleos e 24 threads (juntamente com um cooler), uma PSU EVGA G2 Supernova 80 Plus de 1.600W atenderia bem.

PSU 1600W SUPERNOVA

Conexões da PSU EVGA

Com esse benchmark, você com certeza vai conseguir estudar e avançar na maior parte dos campos de deep learning.

Agradecimentos à equipe Didática Tech pelo suporte técnico prestado na elaboração desse artigo.

Leave a Reply

Your email address will not be published. Required fields are marked *