Ao contrário dos humanos, os computadores não têm esperança, aquela disposição de espírito que leva a crer que algo acontecerá (ou deixará de acontecer), mesmo quando a informação disponível aponta em sentido contrário. Os algoritmos desenvolvidos para analisar uma imensa quantidade de dados e tomar uma decisão de compra ou venda de um produto financeiro não foram programados para cruzar os dedos e esperar que o pior passe. Os computadores seguem à risca as instruções com que foram programados e fazem-no em minúsculas fracções de segundo. Por vezes, isto leva a situações inesperadas.
Um mini-crash dos mercados em 2010 ficou na história como um exemplo dos riscos colocados pelas transacções feitas por algoritmos, em particular por aquilo a que se chama high frequency trading (transacções de elevada frequência). É uma prática que envolve grandes quantidades de transacções automatizadas, feitas em curtíssimos períodos de tempo e onde a estratégia é normalmente ter um pequeno ganho em cada uma das múltiplas compras e vendas.
A 6 de Maio daquele ano, o Dow Jones (o índice bolsista que agrega as cotações de grandes empresas como a Microsoft, a Coca-cola e a IBM) estava às 14h47 minutos de Nova Iorque a perder mais de 9%. A maior parte desta queda, invulgarmente grande, acontecera nos minutos anteriores. Ainda antes das 15h, as cotações já tinham recuperado boa parte das perdas.
Foram precisos meses para que as autoridades regulatórias conseguissem explicar o que se passara: o crash tinha sido causado por computadores a comprarem e venderem uns aos outros, numa sucessão imprevisível de eventos. A bola de neve começou com uma empresa que usou um programa de computador para vender 4100 milhões de dólares de contratos de futuros, independentemente do preço de venda. A maior parte foi rapidamente comprada por computadores de high frequency trading. Quando os algoritmos daqueles computadores consideraram que já tinham comprado demasiado, começaram a vender muito rapidamente. Em escassos 14 segundos, os contratos trocaram de mãos 27 mil vezes.
Com uma venda maciça a decorrer, outros investidores começaram a comprar os contratos a preços reduzidos, mas a vender acções que tinham em mercados como a Bolsa de Nova Iorque. Por seu turno, alguns algoritmos detectaram a rápida sucessão de compras e vendas e pararam de transaccionar. O resultado foi um crash de alguns minutos, que terminou quando um algoritmo, desta vez do mercado onde eram trocados os contratos de futuros, interveio e suspendeu as negociações durante cinco segundos.
Ser o primeiro
Nas rapidíssimas transacções algorítmicas de alta frequência, ser o primeiro a ter acesso a informação relevante é uma vantagem que se mede em milésimos de segundo (ou, às vezes, até menos). A proximidade física às fontes de informação e aos mercados onde as acções e demais instrumentos são transaccionados é um bem cobiçado, já que permite encurtar o tempo que os dados e as ordens de compra e venda demoram a percorrer (normalmente através de cabos de fibra óptica) a distância entre computadores.
“Cada microssegundo de vantagem conta. Ligações mais rápidas de dados entre bolsas minimizam o tempo que se demora a fazer uma transacção; as empresas lutam para ver qual é o computador que pode ser colocado mais próximo”, explica, num artigo recente para a revista Nature, o físico Mark Buchanan, autor do livro Forecast: What Physics, Meteorology and the Natural Sciences Can Teach Us About Economics.
Buchanan argumenta que as transacções ultra-rápidas têm algumas vantagens. Por um lado, diz, tornou-se mais barato investir, já que as comissões cobradas aos investidores caíram com esta prática. Por outro, os preços dos diferentes instrumentos financeiros ajustam-se mais rapidamente. “Em 2000, eram precisos, em média, minutos para que a mudança de preço num instrumento se repercutisse nos outros. Agora, demora menos de dez segundos. Nem toda a gente gosta disto: uma sincronização rápida elimina as oportunidades de lucro das empresas que fazem dinheiro por conhecerem os desequilíbrios momentâneos de preços”.
Associada às transacções de alta frequência está também a prática de colocar no mercado sucessivas ordens de venda, a preços progressivamente mais altos, com o objectivo de descobrir que ordens são aceites e assim saber o preço máximo que alguém está disposto a pagar – estas ordens são dadas e canceladas em fracções de segundo.
O prémio Nobel da Economia Joseph Stiglitz está no campo dos detractores deste tipo de práticas. Num discurso no ano passado, apelou a um maior escrutínio, disse ser céptico quanto ao “valor social” das transacções de elevada frequência e classificou-as como um jogo de soma negativa. “Porque o retorno privado pode exceder o retorno social, haverá um excessivo investimento na velocidade de aquisição de informação”, observou o economista.
Em 2013, foi tornado público que a agência Reuters vendia, a um grupo restrito de investidores, um indicador sobre o consumo nos EUA dois segundos antes de o divulgar à generalidade dos seus clientes (que, por sua vez, o recebiam cinco minutos antes do público em geral). A vantagem podia chegar a dois segundos e meio, já que o contrato previa uma margem de erro de meio segundo. Aquele indicador, que influencia mercados, é elaborado pela Universidade do Michigan. Para ter acesso antecipado à informação, e a poder revender, a Reuters pagava então à universidade um milhão de dólares por ano, mais comissões.
Comentários