IA como ferramenta
Com o mercado de games projetando crescimento tanto em faturamento quanto em número de jogadores, e com estúdios recorrendo cada vez mais à inteligência artificial para acelerar o desenvolvimento de atualizações e lançamentos sem comprometer a qualidade, a Razer destacou três soluções baseadas em IA: Razer AVA, QA Companion-AI e Adaptive Immersive Experience. Esta infraestrutura busca otimizar os processos de produção enquanto mantém os criadores humanos no controle.
Razer AVA: quase uma equipe de IA
Revelado como Project AVA em 2025, o assistente de IA capaz de entender objetivos do utilizador e executar tarefas entre diferentes aplicativos, serviços e dispositivos, teve uma nova versão exibida, que agora consegue transformar comandos ou até mesmo intenções do usuário em fluxos de trabalho automatizados, indo além das respostas tradicionais de um chat. A proposta é de que o AVA seja um assistente que atenda tanto gamers quanto profissionais da indústria.
Principais recursos:
- Distribuição inteligente de processamento: o sistema decide automaticamente quando executar tarefas em modelos de IA locais ou na nuvem, reduzindo latência e melhorando o desempenho.
- Integração com aplicativos e serviços: permite interação com plataformas e softwares compatíveis para executar ações em nome do usuário.
- Fluxos de trabalho baseados em agentes de IA: planeja e executa tarefas complexas com múltiplas etapas automaticamente.
- Coordenação entre assistentes: modelos do AVA de pessoas diferentes podem se comunicar para organizar tarefas compartilhadas, como sugerir horários de reunião ou gerenciar compromissos.
As inscrições para o beta do Razer AVA já estão abertas e podem ser feitas no site oficial, e os convites para acesso antecipado devem ter o envio iniciado no segundo trimestre de 2026.
Razer QA Companion-AI: o otimizador de processos
Revelado na GDC 2025, o Razer QA Companion-AI por sua vez demonstrou novas atualizações que ampliam a automação nos testes de jogos e otimizam fluxos de trabalho sem perda de qualidade.
A principal novidade é o suporte a testes baseados em visão, a ferramenta agora consegue analisar vídeos de gameplay para identificar bugs (problemas visuais, físicos ou de animação) e gerar relatórios automaticamente, incluindo capturas de vídeo e os passos necessários para reproduzir cada bug.
Outro diferencial importante é que a implementação não tem necessidade de ser integrada diretamente com o código do jogo, permitindo que a solução funcione sem exigir grandes alterações no projeto.
Principais melhorias:
- Implantação sem integração: funciona imediatamente sem necessidade de SDKs, plugins ou alterações de código.
- Geração de casos de teste com IA: cria automaticamente testes funcionais, negativos e de limite a partir de prompts ou documentos de design do jogo (GDD).
- Detecção de bugs baseada em visão: analisa vídeos de gameplay para identificar falhas visuais, físicas ou de animação.
- Agentes de gameplay com IA: executam testes automaticamente e retornam resultados de aprovação ou falha.
Ao automatizar estas tarefas, o QA Companion-AI acelera muito as etapas de testes, liberando as equipes para focar no polimento final dos jogos e melhorar a experiência do jogador.
Razer Adaptive Immersive Experience: o maestro do visual
Com o lançamento programado para ser feito em fases a partir de 2026, o novo sistema é voltado à criação de experiências multissensoriais nos jogos. A proposta é integrar efeitos de iluminação, áudio e feedback tátil em tempo real, permitindo que diferentes dispositivos respondam em sincronia aos eventos do gameplay.
A tecnologia faz parte do ecossistema WYVRN da Razer e combina efeitos criados manualmente pelos desenvolvedores com respostas adaptativas geradas automaticamente pelo sistema. Para isso, o sistema, responsável por processar os dados do jogo, interpreta sinais visuais e de áudio, criando reações dinâmicas de luz, vibração e som sem exigir ajustes complexos por parte dos estúdios.
Segundo a empresa, a solução também reduz o tempo de integração para poucos dias, oferecendo aos desenvolvedores uma forma mais rápida de implementar recursos avançados que antes demandariam semanas ou até mesmo meses em alguns casos.
Principais recursos:
- Efeitos adaptativos em tempo real: iluminação e feedback háptico respondem automaticamente aos eventos do jogo.
- Biblioteca plug-and-play: coleção de efeitos prontos compatíveis com Unity e Unreal Engine.
- Integração com tecnologias da Razer: suporte a Sensa HD Haptics, Chroma RGB e THX Spatial Audio+.
Com a adaptação dinâmica de luz, vibração e áudio durante o gameplay, o sistema busca ampliar a imersão sem substituir o trabalho criativo dos desenvolvedores.
Fonte: Razer (via press release)

