Go to Main Content
Aumentar Font Diminuir Font

Gestão Quantitativa e Inteligência Artificial

A área de gestão quantitativa, enraizada em modelos matemáticos e métodos estatísticos, está sempre em constante busca de qualquer ferramenta para aumentar seu poder preditivo. Assim, podemos ver os gestores quantitativos (também conhecidos pela sigla “quants”) como cientistas, sejam matemáticos, físicos, engenheiros etc., em busca de padrões no mercado que os auxiliem a predizer o futuro de certos dados utilizando quantidades gigantescas de informação e infraestruturas complexas de software. Entenda-se aqui por predição, a tarefa de prever não somente o preço de uma ação ou um ativo, mas de prever o futuro para qualquer dado ou variável de relevância para o mercado. Podemos falar de prever dados de fundamento meses antes do release de resultados de uma empresa, prever indicadores macroeconômicos, prever resultados de processos de relevância para empresas de capital aberto, ou, até mesmo, predizer dados mais alternativos ao mercado tradicional, como a chuva em certas regiões agrícolas, ou a movimentação de pessoas em lojas físicas de algum varejista. Nessa busca por melhores ferramentas, pode-se ressaltar a integração da aprendizagem automática (conhecida em inglês como Machine Learning, um subconjunto do campo de IA e talvez o mais popular) aos modelos tradicionais, emergindo como uma nova tendência ainda nos anos de 2010.

Estamos hoje vivendo em uma época de expansão da inteligência artificial, com técnicas desenvolvidas dentro dessa área sendo adaptadas e aplicadas para diversos outros campos do conhecimento. Desde medicina, passando pelo campo jurídico e até os campos de gestão empresarial e recursos humanos, todas as áreas estão encontrando aplicações para técnicas de IA. Isto acontece na esfera acadêmica também, com diversas novas áreas de estudos sendo formadas a partir de outras áreas com a esfera de IA, e novos subcampos de estudo em IA surgindo a cada ano. Este crescimento nos últimos anos foi tão expressivo que ganhou o nome de “Primavera da Inteligência Artificial”, marcado principalmente por avanços na área de aprendizado profundo (popularmente conhecido pelo anglicismo “Deep Learning”) através de redes neurais, proporcionado pelo ganho de processamento das máquinas da virada do século para cá e o crescimento mais que exponencial de dados disponíveis para aprendizado.

Nos anos que antecederam a explosão da aprendizagem profunda e outras técnicas avançadas de IA, as finanças quantitativas já estavam explorando uma gama de métodos de aprendizado de máquina mais clássicos. Estas técnicas, apesar de talvez parecerem mais simples comparativamente, ainda mantêm um papel relevante e, muitas vezes, são preferidas por sua interpretabilidade e robustez. Técnicas como regressões lineares e logísticas, que podem ser aplicadas com métodos dentro da área ML(machine learning), são os pilares da modelagem preditiva. Muitos modelos quantitativos começaram com formas lineares simples para prever preços de ativos ou categorizar tendências de mercado. Enquanto outras técnicas como SVMs, árvores de decisão e florestas aleatórias foram adotadas para segmentar e identificar padrões complexos nos mercados financeiros, oferecendo também uma representação gráfica que facilita a interpretação. Além disso, podemos ressaltar métodos de agrupamento (os famosos “Clustering Algorithms”) capazes de gerar insights e apresentar padrões de similaridade entre dados de larga escala que poderiam tomar dias ou semanas para serem descobertos por analistas humanos, muitas vezes usados para segmentar ativos semelhantes, clientes ou padrões de comportamento de mercado.

Redes neurais, particularmente arquiteturas de aprendizado profundo, demonstraram capacidade para processar conjuntos de dados de alta dimensão, permitindo que os quants descobrissem novos sinais e fontes de alfa. Este passo foi um grande salto para os quants, uma vez que estavam limitados anteriormente por modelos mais lineares e de menos dimensões, vindos principalmente das heranças com o campo de finanças e economia tradicionais. A última década testemunhou uma proliferação das diferentes técnicas de IA aplicadas ao campo de gestão quantitativa. Técnicas de redes neurais recorrentes tornaram-se instrumentais na otimização de estratégias, técnicas de aprendizado por reforço passaram a ser estudadas para simulações de seleção de ativos, estruturas de aprendizado ativo começaram a ser abordadas para a otimização da geração de novos datasets, e mais recentemente até as LLMs passaram a auxiliar gestores e analistas. No campo de modelagem de risco, algo completamente anexo à atividade de gestão quantitativa, algoritmos de aprendizagem não-supervisionadas foram empregados para gerar perfis de risco mais holísticos, analisando fatores multivariados muitas vezes não cobertos na literatura tradicional.

Esta nova expansão também trouxe novos desafios e dificuldades. O principal deles começa pela própria natureza do mercado, que podemos resumir como consistentemente inconsistente. Ou seja, ativos e, por consequência, seus dados, suas séries temporais, tendem a ser dinâmicos, estocásticos, inconsistentes, com períodos de tendência seguidos por períodos de altas e baixas de volatilidade não previstos (os famosos Black Swans) e quebras de paradigmas. Isto tudo dificulta muito a identificação de padrões, e ainda mais, a capacidade de discernir os padrões reais, que se tornam lucrativos, dos padrões espúrios. Na área quant, este problema influencia os algoritmos mostrando performance inflacionada em backtests, as simulações usadas por gestores para averiguar a qualidade de uma estratégia, mas apresentando retornos reduzidos uma vez aplicadas. Um segundo desafio apresentado pelos novos modelos de IA é sua interpretabilidade. Afinal, por mais convidativo que seja a natureza de caixa preta dos modelos mais elaborados, e muitas vezes os que apresentam os melhores backtests, é importante para os gestores serem capazes de interpretar o que ocorre por baixo do capô. Essencial não somente para o entendimento do dia-a-dia da gestão das máquinas, mas também para atender às exigências regulatórias e ser capaz de antecipar riscos que podem estar ocultos nos backtests.

Contudo, a expansão desta área não trouxe apenas desafios. Com o avanço contínuo da tecnologia e da pesquisa, para cada obstáculo, surgem múltiplas soluções e inovações. Pesquisas emergentes em IA interpretável têm como objetivo tornar transparentes as decisões tomadas pelos modelos de IA, oferecendo explicações tanto matemáticas quanto intuitivas para os resultados obtidos. Novas ferramentas de backtesting estão surgindo para minimizar o risco de overfitting, e a crescente disponibilidade de dados promete trazer ainda mais segurança e precisão aos resultados. Além disso, a emergência de novas fontes de dados, como geolocalização e LLMs (como o ChatGPT), está expandindo os horizontes da área quantitativa. O que era impensável uma década atrás, como usar dados de geolocalização para prever receitas de lojas de varejo ou usar LLMs para sintetizar e extrair informações de comunicados empresariais e sites de notícias, agora não apenas é discutido, mas também é respaldado por publicações em revistas científicas, repositórios open-source dedicados e provedores de dados especializados para aplicações no mundo financeiro.

Em resumo, a gestão quantitativa está na vanguarda da inovação no setor financeiro, e com a combinação certa de técnicas avançadas, dados e expertise, o futuro é promissor e repleto de oportunidades inexploradas.