Nesta semana, durante a GPU Technology Conference, os esforços da Nvdia nessas direções podiam ser vistos por todos os lados no pavilhão que sediou o evento da companhia em San Jose, Califórnia. De importantes atualizações para carros autônomos e até mesmo o anúncio de workstations voltadas para cientistas de dados, o futuro que a Nvidia pavimenta é cada vez mais voltado para o arcabouço necessário para que a inteligência artificial avance.
As GPUs da Nvidia são utilizadas para quebrar cálculos complexos para mercados que vão desde o de criptomoedas a aqueles que sustentam os efeitos visuais que vemos nas telas do cinema ou para encontrar padrões no céu em busca de sinais alienígenas. A mesma tecnologia encontrou vocação para ensinar carros a dirigirem por si mesmos e é ela também que alimenta os supercomputadores mais rápidos do mundo.
A crescente demanda por poder de processamento tem reforçado o papel da Nvidia no centro de uma nova revolução tecnológica e a diversificação de suas soluções visa atender indústrias cada vez mais digitais. Na lista abaixo, relembramos os principais anúncios feitos nesta semana que cobrem o futuro da inteligência artificial.
Otimizando a ciência de dados

Na 10ª edição da GTC Conference, um dos principais tópicos abordados foi o Data Science. Para o Jensen Huang, a ciência de dados deve ocupar o quarto pilar da metodologia científica. "Nós agora temos métodos orientados em dados para problemas que são muito complicados para serem resolvidos em equações simples", ressaltou em coletiva de imprensa. Com os anúncios desta semana, ficou claro que a aposta da Nvidia em Data Science é grande. A companhia revelou parcerias com grandes OEMs para construir workstations dedicadas para cientistas de dados e também a disponibilidade de servidores otimizados para executar software de aceleração de ciência de dados. Estes agora estão disponíveis a partir de sete das maiores fabricantes de sistemas do mundo, incluindo Cisco, Dell EMC, Fujitsu e HPE. Tais data centers estão equipados com a GPU Nvidia T4 e foram adaptados para executar bibliotecas de aceleração Nvidia Cuda-X AI. Esta última também foi anunciada no evento. A Cuda é uma arquitetura de computação que a Nvidia introduziu no mercado ainda em 2006. Já a nova Cuda-X AI foi desenhada para abraçar mais de 12 bibliotecas de linguagens que aceleram o data science de ponta a ponta. Com elas, ficam a promessa de acelerar workloads de machine learning e ciência de dados até 50 vezes. A Cuda-X AI está integrada em frameworks de deep learning populares do mercado, como TensorFlow, PyTorch e MXNet. As workstations anunciadas nesta semana também foram otimizadas para rodar as bibliotecas Cuda-X AI.
Fortalecendo a nuvem
Para acelerar a inteligência artificial, a Nvidia também precisa de data centers mais robustos. Nesta direção, a companhia anunciou a última configuração do seu servidor RTX. Um pod completo do RTX consegue suportar até 1.280 GPUs Turing em 32 servidores blade RTX. São 40 GPUs por servidor, cada um ocupando um espaço de 8U. Dependendo da configuração, as GPUs aqui usadas podem ser Quadro RTX 4000 ou 6000. Esses servidores RTX são otimizados para rodar pesados software de renderização, game, Realidade Virtual e Aumentada e aplicações profissionais de visualização. Segundo a Nvidia, tal configuração consegue entregar gráficos com qualidade de cinema ressaltados pela tecnologia ray tracing pelo custo da eletricidade de um cluster baseado em CPU e com a mesma performance. Todo esse poder pode ser compartilhado entre diferentes usuários. Dell, HP, Lenovo, Asus e Supermicro estão entre as fabricantes que irão fornecer os servidores RTX para seus clientes.