Brasileiro foi para Meta em busca da ‘superinteligência’ – 15/07/2025 – Tec

Brasileiro foi para Meta em busca da ‘superinteligência’ – 15/07/2025 – Tec

O trabalho de Rafael Valle, 40, está no futuro, na busca por uma inteligência artificial geral de áudio —uma espécie de ChatGPT dos sons, capaz de imitar vozes alheias, vocalizações animais e até melodias musicais que ainda não existem.

O brasileiro foi um dos talentos da IA que o CEO da Meta, Mark Zuckerberg, contratou com bilhões de dólares para montar um laboratório cujo objetivo é alcançar a ‘superinteligência’. Trata-se de um marco teórico para quando a IA superaria as capacidades humanas.

Músico regente de formação, Valle é um dos autores do avanço tecnológico que permitiu gerar voz em segundos. A conquista foi fundamental para desenvolver IAs capazes de conversar em tempo real. “Não faria sentido dizer algo e esperar um minuto [para ter a resposta]”, disse Valle.

De acordo com o pesquisador, a equipe da Meta reúne cerca de 50 pessoas em torno do projeto de construir a ‘IA superinteligente’ e multimodal, capaz de interagir por texto, áudio e imagem, entre outros meios. Zuckerberg conseguiu recrutar talentos de OpenAI, Nvidia e Google.

O brasileiro começou na Meta no último dia 7 e disse que a equipe ainda está estabelecendo uma rotina. “Vamos trabalhar tanto com pesquisas de longo prazo sobre os caminhos para alcançar a superinteligência como também na criação de produtos para o grande público.”

Valle diz ter visto uma vantagem na troca: a chance de oferecer produtos e ter acesso ao público de mais de 2 bilhões de pessoas da Meta, enquanto a Nvidia é uma empresa focada em atender outros negócios e facilitar o desenvolvimento de tecnologia.

Além disso, o pesquisador brasileiro valorizou a oportunidade de trabalhar com dois pesquisadores próximos do cérebro por trás do ChatGPT, o cientista Ilya Sutskever. “Ilya é o profeta da inteligência artificial”, diz o brasileiro.

Sutskever deixou a OpenAI, após uma tentativa de derrubar o CEO Sam Altman, e fundou a startup Safe Superintelligence junto com o engenheiro Daniel Gross —que também foi contratado por Zuckerberg.

Valle defende que o Vale do Silício já trabalha com IAs superinteligentes, e que as pessoas ainda estão aprendendo o potencial da tecnologia. Um exemplo disso, diz ele, foi a identificação de proteínas com auxílio do AlphaFold2 do Google, feito que seria impossível para um humano realizar em tempo hábil e acabou reconhecido com o Prêmio Nobel de Química.

De acordo com o pesquisador da Meta, as pessoas ainda não conseguem entender como funciona a inteligência das máquinas, que seria fundamentalmente diferente da inteligência dos homens. “É como aquela analogia da barata querendo compreender a música dos homens —ela jamais conseguirá, está além da compreensão”, disse o brasileiro.

Por outro lado, avalia o brasileiro, as pessoas conseguirão tirar proveito da inteligência artificial mesmo sem compreender completamente como funciona o trabalho das máquinas. “É como as teorias de Albert Einstein sobre o universo que as pessoas só conseguiram provar empiricamente anos depois.”

Embora esteja hoje na ponta de lança do desenvolvimento tecnológico, Valle se formou em música, com especialidade em regência, na Universidade Federal do Rio de Janeiro. Já graduado, trabalhou na orquestra de Jocy de Oliveira.

Tudo mudou na vida de Valle durante a leitura de um livro sobre inteligência artificial em meados dos anos 2000 —era algo genérico, de que ele não lembra o nome, sobre carros autônomos e reconhecimento facial. “Foi quando pensei: dá para fazer máquinas que fazem música”, diz ele. “Fui inocente”, emenda.

O trabalho de Valle com inteligência artificial e fala começou durante um doutorado iniciado em 2012 na Universidade de Berkeley, na Califórnia, após um mestrado em Stuttgart, na Alemanha. Nos Estados Unidos, ele tentou desenvolver uma inteligência artificial que reconhece vozes clonadas —como as que são usadas com frequência em golpes e materiais difamatórios no Brasil.

“Eu já fazia esta pergunta: a inteligência artificial para gerar som, que ainda não era feita sob a perspectiva de imitar, não confundiria todo mundo?”, questionou. “Eu queria ver se há alguma coisa que o ouvido humano não percebe na onda sonora que a máquina identifica.”

Hoje, usando uma tecnologia que Valle ajudou a criar, é possível copiar timbre, tom e ritmo de voz de alguém com um áudio de três segundos.

Por isso, avaliou o pesquisador, é impossível fazer um sistema que identifica se uma voz é sintética ou autêntica usando inteligência artificial. “O único jeito de garantir isso seria um sistema de controle centralizado, com acesso a todas as falas das pessoas e áudios gerados por inteligência artificial, o que é eticamente inviável.”

“A saída deve ser por um selo de autenticação obrigatório”, concluiu. O modelo já é adotado por grandes empresas de tecnologia como o Google e a OpenAI.

O brasileiro começou na Nvidia em 2014, quando pesquisadores da DeepMind (hoje um braço do Google) deram os primeiros sinais de que o futuro da inteligência artificial estava na riqueza de dados disponíveis na internet e nas redes neurais, uma tecnologia que imita o desenho do cérebro humano para fazer cálculos estatísticos complexos.

Em mais de dez anos na empresa, Valle ajudou a construir a base tecnológica dos grandes modelos de linguagem que trabalham com sons. Além da arquitetura TTS, que gera e copia falas em segundos, a pesquisa dele ajudou a melhorar ferramentas já disponíveis para o público, como a tradução em tempo real de ligações, com fluidez e timbres mais naturais.

Antes de deixar a Nvidia no início deste mês, Valle concluiu seu trabalho mais ambicioso: o Fugatto, uma tentativa de fazer um modelo generalista de áudio. Essa tecnologia seria capaz de reproduzir fala, ruídos, sons de animais, instrumentos musicais e até sonoridades inexistentes no mundo.

Valle disse que a ideia do Fugatto surgiu há três anos, como um presente que ele queria dar ao filho que, na época, era apenas um projeto e hoje tem três meses. Ele, em brincadeira com a esposa, disse: “O que vamos fazer quando nosso filho, que vai ser meio doido igual à gente, pedir o som de um latido de um saxofone?”

O tal latido do saxofone apareceu no artigo de lançamento do modelo de IA, divulgado em 25 de abril. O texto destaca as capacidades que o modelo de inteligência artificial atingiu sendo treinado apenas com dados sonoros —é um feito similar ao alcançado no desenvolvimento do GPT, que foi treinado apenas para prever a próxima palavra em um texto e é capaz de escrever, traduzir, programar entre outras tarefas.

Fonte Original do Artigo: redir.folha.com.br

Postagens Relacionadas

‘Não esperem tristeza sobre Preta’

‘Não esperem tristeza sobre Preta’

Fiel escudeiro de Preta Gil, Gominho contou que passou por um ‘luto vivo’ nos últimos meses de vida da amiga; cantora…
DF oferece até R$ 9 mil em seu novo processo seletivo

DF oferece até R$ 9 mil em seu novo…

O Instituto Federal de Brasília (IFB), no Distrito Federal, divulgou seu edital nº 18/2025 para atender necessidade de excepcional interesse público.…
Grupo SEB Abre Vagas Para Estágio E Professor Assistente No Rio De Janeiro

Grupo SEB Abre Vagas Para Estágio E Professor Assistente…

Sobre o Grupo SEB: Com seis décadas de pioneirismo no cenário educacional, o Grupo SEB estabeleceu-se como uma comunidade global, vibrante…