Em um laboratório de alta segurança, cientistas acompanham um experimento inédito: um processador quântico de 56 qubits, operando em estado de superposição, começa a gerar números verdadeiramente aleatórios — não simulados, não aproximados, mas matematicamente certificados como imprevisíveis, mesmo que o próprio hardware quântico esteja comprometido. Esse feito marca não apenas uma conquista técnica, mas um divisor de águas na história da computação quântica: pela primeira vez, temos uma aplicação prática, validada e útil, que supera qualquer alternativa clássica de forma definitiva.
Após décadas de promessas, simulações teóricas e debates sobre a chamada “supremacia quântica”, esse experimento representa um momento comparável ao primeiro uso comercial do transistor ou à chegada dos primeiros computadores digitais. A computação quântica, até então confinada ao campo das pesquisas experimentais e às expectativas para o “futuro”, agora tem uma função concreta, com valor direto para setores como segurança digital, finanças, blockchain e privacidade de dados.
Por que gerar aleatoriedade é tão difícil — e tão crucial
A maior parte das infraestruturas digitais que usamos todos os dias — de transações bancárias a redes sociais, sistemas de votação online e criptomoedas — depende de números aleatórios seguros. Eles são essenciais para gerar senhas, chaves criptográficas, tokens de autenticação e muito mais. Mas existe um problema de base: computadores clássicos não conseguem gerar aleatoriedade verdadeira.
Isso acontece porque computadores são, por definição, determinísticos — isto é, dados os mesmos inputs, sempre produzem os mesmos outputs. O que chamamos de geradores de números aleatórios em sistemas clássicos são, na verdade, algoritmos pseudoaleatórios: fórmulas que geram sequências que parecem aleatórias, mas que são totalmente previsíveis se você souber qual foi a “semente” usada como ponto de partida.
Essa vulnerabilidade é real. Em 2013, documentos vazados por Edward Snowden revelaram que agências de segurança tinham manipulado algoritmos pseudoaleatórios utilizados por milhões de dispositivos no mundo. E como você garante que um número é realmente aleatório? Como provar matematicamente que não existe um padrão oculto ou um ponto de falha no gerador?
Onde entra a física quântica — e por que ela muda tudo
A mecânica quântica, ao contrário da física clássica, é intrinsecamente probabilística. O Princípio da Incerteza de Heisenberg afirma que certos pares de propriedades físicas — como posição e momento — não podem ser conhecidos simultaneamente com precisão absoluta. Mais que uma limitação de medição, isso é uma característica fundamental da realidade.
Quando um qubit está em superposição — isto é, em múltiplos estados ao mesmo tempo — e é medido, o resultado é intrinsecamente aleatório. Essa aleatoriedade não pode ser prevista, nem mesmo se você tiver acesso total ao sistema físico. A mecânica quântica, portanto, não apenas permite gerar números aleatórios, mas garante que eles sejam verdadeiramente imprevisíveis.
O protocolo de aleatoriedade certificada: a ideia genial de Scott Aaronson e Umesh Vazirani
Mas nem tudo é tão simples. Só porque um sistema quântico está operando, isso não significa automaticamente que ele está gerando boa aleatoriedade. Pode haver interferência, corrupção de hardware ou até sabotagem. É aí que entra o grande avanço deste experimento: o protocolo de aleatoriedade quântica certificada, proposto por Scott Aaronson e validado experimentalmente por pesquisadores da Quantinuum.
O protocolo funciona em duas etapas:
Um computador clássico gera um conjunto de circuitos quânticos aleatórios, que são difíceis de simular por máquinas clássicas, mas fáceis de serem processados por qubits em superposição.
O computador quântico resolve esses circuitos. Os resultados, que parecem apenas uma sequência de bits, passam por verificações matemáticas sofisticadas que certificam que a entropia (grau de desordem ou aleatoriedade) gerada não poderia ser produzida por nenhum sistema clássico.
O verdadeiro triunfo aqui é que a verificação pode ser feita sem simular o processo completo — algo que seria computacionalmente inviável. Assim, mesmo que o processador quântico seja sabotado, ele não pode “fingir” que gerou aleatoriedade verdadeira sem falhar na verificação.
O experimento histórico: o processador H21 e os 71.000 bits de entropia quântica
A demonstração foi conduzida com o H21, um processador quântico da Quantinuum baseado em íons aprisionados, com 56 qubits de alta fidelidade. O sistema foi capaz de produzir 71.313 bits de entropia certificada, cada um verificado matematicamente como imprevisível — algo jamais alcançado por nenhuma tecnologia clássica.
Além disso, o protocolo possui uma propriedade essencial: a chamada expansão de aleatoriedade. Ou seja, ele consome poucos bits aleatórios (apenas para gerar os circuitos de desafio), mas produz uma quantidade significativamente maior de aleatoriedade verdadeira na saída. Isso o torna útil e eficiente.
Aplicações práticas: do blockchain à privacidade diferencial
Pode parecer abstrato, mas as aplicações desse avanço são vastas e impactam áreas extremamente sensíveis. A mais óbvia é a criptografia: com aleatoriedade certificada, é possível gerar chaves criptográficas matematicamente imprevisíveis, oferecendo uma camada de segurança inatingível por qualquer gerador pseudoaleatório.
No setor financeiro, algoritmos de risco, negociações automatizadas e modelos de precificação frequentemente usam números aleatórios para simular cenários. Qualquer vulnerabilidade nesses dados pode causar fraudes em larga escala ou manipulações de mercado. Aleatoriedade quântica confiável oferece uma nova salvaguarda.
Em blockchains, a seleção de validadores e o consenso distribuído dependem de sorteios imparciais. A certificação da aleatoriedade elimina qualquer possibilidade de manipulação. A privacidade diferencial, usada por empresas como Apple e Google, também se beneficia: com ruído quântico certificado, os dados de usuários podem ser protegidos com muito mais robustez.
Até setores como loterias, sorteios, jogos online e testes clínicos randomizados podem ser reformulados com base nesse novo tipo de aleatoriedade.
Por que este é o primeiro uso “real” da computação quântica
É importante destacar o que diferencia esse experimento de outros esforços anteriores. Em 2019, o Google anunciou que seu processador Sycamore havia atingido a “supremacia quântica”, resolvendo um problema sem utilidade prática em 200 segundos — algo que, segundo eles, levaria 10.000 anos em um supercomputador.
Esse anúncio foi criticado, pois logo surgiram algoritmos clássicos capazes de resolver o mesmo problema com muito mais eficiência do que se pensava. Ou seja, era uma vitória simbólica, mas não comercial.
A aleatoriedade certificada muda esse cenário. Trata-se de uma aplicação útil, verificável, implementada com hardware atual e com benefícios comerciais concretos. É, portanto, o primeiro verdadeiro “produto” da computação quântica.
Limitações, desafios e o que vem a seguir
Apesar da conquista, ainda há obstáculos importantes. Um deles é a escalabilidade do hardware: gerar milhões ou bilhões de bits aleatórios por segundo exigirá processadores quânticos maiores e mais estáveis. Outro desafio é a velocidade do processo. A geração e verificação de 71 mil bits ainda leva tempo — algo que precisa ser otimizado para aplicações em larga escala, como redes de pagamento ou datacenters.
Além disso, será necessário integrar essa tecnologia às infraestruturas já existentes, desenvolver padrões internacionais de certificação e garantir a conformidade com regulações de segurança e privacidade.
Mas mesmo com essas barreiras, o caminho está claro. A computação quântica deixou de ser uma promessa abstrata e entrou, de forma concreta, no mundo das soluções reais.
Conclusão: um marco silencioso, mas revolucionário
A geração de aleatoriedade quântica certificada pode parecer um detalhe técnico. Mas ela representa um novo modelo mental para a computação. Em vez de tentar competir diretamente com a potência dos supercomputadores clássicos, a computação quântica começa a se posicionar onde nenhum outro sistema pode competir: naquilo que é fundamentalmente incalculável por métodos tradicionais.
Esse é apenas o começo da era das aplicações quânticas práticas. Se a história da tecnologia nos ensinou algo, é que momentos como este — silenciosos, mas profundos — são o ponto de partida para revoluções que redefinem a forma como o mundo opera.