Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

O que é o G-Sync da NVIDIA e como ele funciona

Por| 11 de Dezembro de 2015 às 12h49

Link copiado!

O que é o G-Sync da NVIDIA e como ele funciona
O que é o G-Sync da NVIDIA e como ele funciona
Tudo sobre Nvidia

Hora de conhecer a abordagem da Nvidia para resolver o tearing em jogos, uma abordagem ligeiramente diferente do FreeSync da AMD, mas tendo exatamente o mesmo objetivo em mente. Independentemente da ordem de leitura, entender um serve de base para entender o outro, com a compreensão do funcionamento do FreeSync facilitando o entendimento do G-Sync, e vice-versa. E, claro, além de explorar o funcionamento do G-Sync, vamos entender também os “problemas” atuais dessa tecnologia.

O problema do tearing e a solução da NVIDIA

Tearing é um problema inerente de monitores com taxa de atualização constante, comumente trazendo frequências de atualização de 60 frames por segundo (60 Hz). Modelos voltados para jogos costumam trazer frequências maiores, como 120 Hz e 144 Hz (modelos com 240 Hz já rondam o horizonte), mas, ainda assim, com uma taxa de atualização fixa. Não haveria tearing se tanto a GPU quanto o monitor estivessem trabalhando com a mesma frequência, mas, como isso é praticamente impossível, é necessário criar alguma solução para resolver esse problema.

Continua após a publicidade

Ao contrário do FreeSync, o G-Sync usa um módulo proprietário criado pela NVIDIA.

A solução apresentada pela NVIDIA é o G-Sync. A ideia é a mesma do FreeSync: permitir que o monitor trabalhe com taxas variáveis de frequência, sincronizadas com a GPU. A estratégia, porém, é criada do zero, com um módulo físico dentro do monitor responsável por essa variação ao invés de aproveitar uma tecnologia já existente como o FreeSync (que usa o ActiveSync do padrão DisplayPort 1.2a). Isso permite, em teoria, um controle maior por parte da NVIDIA para uma experiência melhor, assim como adicionar novas funções.

Continua após a publicidade

O módulo G-Sync "conversa" com a GPU, exibindo somente os frames gerados por ela.

Esse é o caso do ULMB (Ultra Low Motion Blur), que diminui bastante o motion blur e o ghosting que geralmente surgem quando objetos estão se movendo muito rápido. Um dos lados negativos é que a iluminação da cena acaba diminuindo, mas é rapidamente compensada por um aumento no brilho do monitor de forma automática, uma das funções extras do módulo do G-Sync.

Continua após a publicidade

Com o V-Sync, o usuário tinha que escolher o problema que teria que lidar: com o V-Sync desativado, havia o tearing. Com ele ativado, havia o stuttering e o input lag.

Vale dizer que o G-Sync resolve os principais problemas do V-Sync: stuttering (quando o jogo aparenta rodar mais devagar, mesmo que acuse um FPS alto), em especial em configurações com SLI ou Crossfire; e/ou input lag (atraso na exibição de certos quadros). É uma das vantagens de se ter um hardware dedicado para manter a taxa de atualização constante em vez de tentar equilibrar tudo via software.

Em relação ao suporte, qualquer modelo da NVIDIA da série GeForce GTX 600 (Kepler) em diante é capaz de trabalhar com o G-Sync, que deve ser ativado tanto no monitor quanto no driver de vídeo da NVIDIA.

Problemas

Continua após a publicidade

Um dos principais “problemas” do G-Sync não é a tecnologia em si, mas mercadológica. Modelos com o G-Sync custam, em média, US$ 200 a mais do que um equivalente com o FreeSync devido ao módulo proprietário (o que se transforma em quase R$ 1.000 de diferença no mercado brasileiro). A NVIDIA já se comprometeu a criar uma solução mais acessível, já que não é todo mundo que está disposto a investir um valor considerável por uma tecnologia que não está isenta de problemas técnicos.

Notebooks gamer com o G-Sync ativo estão se tornando cada vez mais comuns.

Como exemplo, temos o altíssimo consumo de energia por parte da placa de vídeo, em especial quando o framerate é mais alto - isso se comparado ao mesmo jogo, nas mesmas condições, com o mesmo FPS, mas com o G-Sync desativado, o que mostra uma boa dificuldade da placa de vídeo para manter essa sincronia funcionando. A NVIDIA já assumiu esse problema e promete uma atualização de driver para resolvê-la - afinal, é um problema na GPU -, mas, até o momento, não há nada oficial.

Continua após a publicidade

A partir de 120 Hz (ou 120 FPS), o consumo de energia da GPU mais do que dobra.

O terceiro problema é técnico e localizado em monitores de alguns fabricantes em particular. Assim como o FreeSync, o G-Sync resolve alguns problemas e acaba criando novos. No caso, trata-se do flickering, um efeito colateral do ajuste de brilho pelo ULMB, que acaba estourando cores (branco, em especial) em alguns pixels. É algo bem localizado, muitas vezes imperceptível em modelos com maior resolução, já que os pixels são menores.

Conclusão

Continua após a publicidade

Pois bem, temos as duas principais fabricantes de placas de vídeo do mundo trabalhando em soluções próprias para um mesmo problema, só que de forma separada e independente, o que obriga o usuário a escolher entre o time verde (NVIDIA) e o time vermelho (AMD) tanto na hora de escolher uma GPU quanto um monitor. É interessante ver que as duas empresas tentam abordagens diferentes para resolver um mesmo problema, sendo que o fim do tearing poderia beneficiar os consumidores das duas marcas, não?

Enquanto a abordagem da AMD começa tentando explorar uma tecnologia já existente, aberto e aproveitando recursos já existentes, a NVIDIA foca no controle total, projetando sua própria solução. Se por um lado isso garante uma flexibilidade maior na hora de corrigir defeitos e adicionar novos recursos, por outro acaba obrigando o usuário a “fechar com a NVIDIA” de forma indeterminada, ficando obrigado a continuar investindo somente em soluções da empresa para aproveitar as novidades.

O interessante também é que o G-Sync e o FreeSync ainda não se mostraram soluções completas, resolvendo um problema enquanto cria outro (ou outros). Qual deles é o mais promissor? Ainda é cedo para dizer, já que a melhor solução é aquela que funciona, independentemente da forma, e nenhuma das duas funciona perfeitamente até agora.

Fontes: Extremetech, NVIDIA, PC Perspective, Overclockers Club, WCCFtech, PCWorld, TechReport