Qual é o futuro da IA generativa? Como os líderes em finanças podem equilibrar velocidade e segurança na adoção de LLMs pelas empresas?
No 2025 Sell-Side Leaders Forum da Bloomberg, em Nova York, Mandeep Singh, diretor global de pesquisa em tecnologia da Bloomberg Intelligence, conversou com Shawn Edwards, diretor de tecnologia (CTO) da Bloomberg, Ather Williams III, vice-presidente executivo sênior, diretor de estratégia, digital e inovação do Wells Fargo, e Ali Hirsa, professor de prática profissional no Departamento de Engenharia Industrial e Pesquisa Operacional da Universidade de Columbia, sobre as oportunidades e desafios envolvidos na integração da IA e como impulsionar a inovação em ecossistemas complexos.
Destaques
Principais insights do painel de discussão:
LLMs como camadas de orquestração
Shawn Edwards: Os LLMs não são um substituto para o seu sistema de armazenamento de dados. Não é assim que devemos pensar neles. É possível ensiná-los e treiná-los ao máximo, mas, antes disso, é essencial contar com fontes de dados confiáveis, pois é a partir delas que se chega aos fatos. Além disso, é preciso ter muito cuidado ao pedir que um LLM execute alguma tarefa. Eles também não substituem calculadoras ou serviços: não se deve pedir a um LLM que faça contas. Na verdade, eles são bastante ruins nisso, e não vão realizar cálculos de títulos de dívida. Trata-se, na verdade, de desenvolver e manter continuamente a curadoria das fontes de dados, de investir no desenvolvimento e na expansão constante dessas fontes. Trata-se também de ensinar seus sistemas de IA a utilizar as ferramentas – um data lake, uma calculadora -, a recorrer a esses recursos e sintetizar respostas. E, de alguma forma, o sistema de IA acaba se transformando em um coordenador.*
Acesso a dados de qualidade
Ali Hirsa: Quando falamos de IA, independentemente do aspecto em questão, o primeiro pilar são os dados – é a qualidade. E, na maioria dos casos, talvez ainda não tenhamos dados de qualidade suficientes, especialmente no que diz respeito à relevância, risco de cauda ou eventos raros. Para isso, precisamos recorrer a técnicas de deep learning para gerar dados sintéticos. Esses são métodos não paramétricos. Mas isso nos leva a um campo totalmente novo: qual é a melhor forma de gerar dados sintéticos que ainda preservem as características de estilo dos dados do mundo real? É justamente nessa direção que grande parte das pesquisas atuais está caminhando, e é também onde temos concentrado nossos esforços.
O valor dos dados sintéticos
Ather Williams III: A geração de dados sintéticos de altíssima qualidade tem sido um divisor de águas. Quando iniciamos o processo de reestruturação fundamental de uma plataforma, é possível utilizar ferramentas como o Copilot ou o GitHub Copilot para gerar códigos. Mas também é necessário gerar scripts de teste e, em seguida, realizá-los. Só que a duração do ciclo de testes de regressão, que antes levava de seis a oito semanas, caiu para apenas alguns dias. A capacidade de gerar dados sintéticos possibilita automatizar os cenários de teste e executá-los em um número muito maior de ciclos, o que tem sido absolutamente revolucionário em termos da velocidade com que conseguimos levar novas plataformas ao mercado.
*As citações foram editadas para concisão e clareza.
Interessado em saber mais sobre as soluções da Bloomberg para os líderes de sell-side? Clique aqui.