пятница, 27 апреля 2018 г.

Finanças quantitativas e negociação sistemática


Finanças quantitativas e negociação sistemática
Obter através da App Store Leia esta publicação em nosso aplicativo!
Categorias de estratégias de negociação sistemáticas?
Quais são as principais categorias de estratégias de negociação sistemática (por exemplo, impulso, reversão média), como pode ser considerado por um índice ou analista de fundos de fundos?
Existem sub-estratégias comuns?
Existem outros tipos de estratégia não cobertos pela reversão à média / tendências seguintes:
arbitragem - mantenha os ativos correlatos fechados no preço (índice SPX versus 500 ações contidas, ou negociação do ouro em Londres versus negociação do ouro em Nova York)
fazer mercado - comprar em oferta, vender em perguntar, ganhar o spread.
desconto de liquidez - alguns venus pagam para colocar ordens de limite no livro. Coloque em uma ordem de limite para comprar, quando é batido tente vender ao mesmo preço que você comprou em (ou melhor) e ganhe o desconto. Funciona melhor em ativos de alto volume e baixo preço.
negociação predatória - buscar grande liquidez escondida no mercado e front-run-lo.
comércio comportamental - quantificar o sentimento do mercado e trocar no mesmo (analisar tweets, determinar o clima global / regional e usar teorias psicológicas conhecidas para prever o efeito sobre o comportamento do mercado)
negociação de eventos - analise notícias (eletrônica, papel, blogs, twits) e preveja o impacto no mercado de novos fatos relevantes (litígios, novos produtos, nova administração,.)
Não há taxonomia oficial dos modelos de negociação de quant. Afinal de contas, as "avaliações" são inerentemente subjetivas, não importa o quanto de matemática nos dedicamos. Mas existem alguns termos padrão da indústria que podem ser úteis.
Também é possível decompor por implementação:
Horizonte de tempo: variando desde longo prazo até alta frequência Estrutura de apostas: relativa ou intrínseca Instrumentos: líquidos ou ilíquidos.
E isso nem entra na construção de portfólio, limites de posição, monitoramento de risco, etc.
Quanto ao que funciona, mantenha esta máxima em mente:
Os touros ganham dinheiro, os ursos ganham dinheiro, mas os porcos são abatidos.
E finalmente, comparar grafistas a quants é como comparar astrólogos a astrônomos.
Eu uso o método ANDY LANK CASH FLOW, é o meu favorito.

Idiotice de investimento.
Negociação Sistemática, Finanças Quantitativas, Investimentos, Ativismo Financeiro, Tomada de decisão econômica.
Material de negociação sistemática.
Artigos ocasionais no meu próprio sistema comercial.
Artigos gerais ocasionais sobre negociação sistemática.
Série: Usando dados aleatórios para projetar sistemas de negociação.
Série: Gerenciamento sistemático de riscos.
Tecnologia.
Série: código Python usado no livro.
Series: Como fazer com que os APIs de API de python nativos interativos funcionem.
Obtendo dados históricos.
Obtendo dados de mercado em fluxo.
Série: Como obter API de corretores interativos e python via swigby 101.
Série: Um guia para as nozes e parafusos da implementação de um sistema sistemático de comércio de futuros.
Série: Pysystemtrade - meu mecanismo de backtesting de python de código aberto.
Otimizando na presença de custos.
Correção de capital.
Docker e sistemas de negociação automatizados.
Outros artigos sobre tecnologia de negociação sistemática.
Docker e sistemas de negociação automatizados.
38 comentários:
oi Rob, seus sistemas estão disponíveis para compra, assinatura? Obrigado, Robin.
Não nunca. Há material suficiente no meu livro e neste site para reproduzir o sistema de negociação que uso, gratuitamente.
Como sua estrutura lida com a inevitável perda de energia ou conexão com a Internet?
Por exemplo, talvez sua estrutura detecte uma condição que exija que um pedido seja feito, mas a energia seja desligada ou a conexão com a Internet caia.
Oi Robert, ótima pergunta. Sim eu corro minhas coisas em casa & # 39 ;.
O FC escreveu esse comentário, que eu deletei acidentalmente:
A vantagem fiscal vale o problema de desenvolvimento, o risco de crédito e o pior spread bid-ask? & quot;
Não tenho um problema com as apostas propagadas, mas certamente é verdade que, se um futuro estivesse disponível nos mesmos termos (o mesmo tamanho de ticks), eu trocaria o futuro.
Excelente - já ordenei seu livro. Aguardando entrega do editor.
Oi, Rob, eu li ótimas críticas sobre o seu livro e fui aconselhado por um amigo para dar uma olhada nele, no entanto, eu sou novato para negociação e investimento, você pode me aconselhar o que ler e aprender antes de começar a ler seu livro?
Essa é uma questão difícil, pois depende de em que nível você está e em que direção deseja entrar. Se você quiser negociar futuros, ler livros de Jack Schwagers seria um bom começo.
Grande livro. Queria deixar você saber que nos especializamos na execução de estratégias de negociação sistemática para clientes nos mercados de futuros e commodities. Oferecemos suporte a várias plataformas diferentes, incluindo TradeStation, TradingBlox, Mechanica, e fornecemos acesso a quase todos os produtos aprovados pela CFTC em todo o mundo. Se você conhece alguém que precisa de ajuda para colocar suas estratégias no mercado, podemos ajudar na execução e reconciliação e fazer um excelente trabalho (por mais de 20 anos).
em primeiro lugar, obrigado por escrever o livro, achei muito detalhado e útil.
Em seu livro, você menciona como é difícil superar os custos das apostas com spread. Para a maioria dos cidadãos da UE, os ganhos em apostas por spread são isentos de impostos. Isso é parte desse cálculo? Felicidades.
Não, eu não incluí imposto no cálculo. Mas a propagação de apostas é cerca de 10 vezes mais dispendiosa do que dizer futuros de negociação. O imposto deveria ser incrivelmente alto em futuros para tornar as apostas espalhadas mais competitivas.
Ok, sim, está bastante doente. Quando o novo livro está chegando?
Você já fez alguma gravação de chamada? Parece um bom ajuste para um sistema de negociação sistemático. Felicidades.
Eu não tenho, mas sim estratégias de volatilidade curta como esta são uma coisa boa.
Me deparei com seu site enquanto procurava por alguém que usa python para negociação. Felizmente eu encontrei você. Gostaria de agradecer pelas informações que você compartilha conosco.
Estou totalmente interessado em seu livro. No entanto, tenho uma pergunta sobre o conteúdo. Você explica uma estratégia que você usa para negociar futuros ou estratégias que podem ser empregados? Porque eu nunca negocio futuros e gostaria de começar a negociar, aprendendo passo a passo a partir das diretrizes do seu livro, se for esse o caso. O que devo esperar do seu livro?
Desde já, obrigado.
Oi. Sim, eu explico algumas estratégias básicas para negociar futuros (também ETF e aposte as apostas). Mas eles já assumem alguma familiaridade com o futuro. Leia algo como amazon / Trading-Commodities-Financial-Futures-Step - / dp / 0134087186 / (primeiros quatro capítulos)
Depende do seu período de espera. Atualmente eu provavelmente atualizo demais (por hora), dado um período de espera de algumas semanas ou mais. Eu poderia facilmente atualizar tudo diariamente, e mesmo na próxima iteração do meu código, o que eu planejo fazer.
Obrigado. Como minhas regras de negociação serão lentas, espero períodos de manutenção semelhantes. Uma taxa de atualização diária provavelmente será suficientemente rápida. No entanto, com várias trocas em vários fusos horários envolvidos, isso leva à pergunta: "o que é o fim do dia?" Talvez eu decida tomar medidas no final do dia de negociação de cada troca envolvida.
Oi Rob, acho que notei um erro na sua nova planilha de cálculo Carry (docs. google/spreadsheets/d/1ipugeBCk_W-K4_9wnQmU6RfVvZoIRzFfKrw3ly-h8QA/edit? usp=sharing). A célula G22 tem: "= IF (AND (C22 & lt; & gt; 0, F22 & lt; & gt; & gt; 0, C22-F22), C22-F22, G21)". Eu acho que você deve excluir o terceiro elemento no & quot; E & quot; função.
Fixo. Muito obrigado.
Fico feliz em ajudar, obrigado por todos os seus conselhos em resposta a todas as minhas postagens. Eu tenho escrito o seu "Capítulo 15" sistema por alguns dias agora. Poderia, por favor, confirmar o seguinte em relação à sua estratégia de carry: No dia 4 de novembro, o preço de fechamento do Eurodollar de dezembro de 2016 era 99,075, e o preço de fechamento do Jan 2017 Eurodollar era 99,070. Portanto, o sinal de negociação seria longo. Então, eu deveria ser longo o contrato de janeiro de 2017, correto? E se o spread fosse significativamente maior no contrato de janeiro de 2017? Estaria tudo bem em ir o contrato de dezembro de 2016? Haveria algum motivo para olhar para o contrato Jan vs Feb 2017, ou devemos sempre estar olhando os dois contratos mais próximos na determinação da previsão? Obrigado.
Qual contrato você deve negociar eu discuto mais aqui: qoppac. blogspot. co. uk/2015/05/systems-building-futures-rolling. html. Como medir carry, discuto mais nos apêndices do meu livro.
Oi Rob, em seu livro, você menciona que é preferível medir futuros de ações usando o preço à vista. No entanto, no seu sistema python, para o EUROSTX, você usa o contrato adicional (que não é mantido) versus o contrato mais próximo (o qual, por necessidade, deve ser mantido). Uma segunda pergunta, se eu puder: você menciona em seu livro que você tem como alvo a volatilidade anual de 37,5% em seu próprio sistema futuro, mas o fundador do fundo reporta sua volatilidade anual em cerca de 8%. Você sabe por quê? Obrigado.
a) É preferível usar o local, mas eu não o faço pessoalmente por causa do incômodo de obter dados sincronizados.
Acabei de começar a operar o sistema do seu capítulo 15 usando seu código pysystemtrade terriffic. Por enquanto, tudo bem. Enquanto isso, eu estava interessado em um artigo recente que descrevia um sistema muito lucrativo e simples: se o preço do sp500 estiver acima de 200 sma, investir na alavancagem de 3x; Caso contrário, invista em Tbills. Eles receberam um CAGR de 27%, mas com um rebaixamento máximo de 92%, durante um backtest muito longo. Isso me fez pensar em adicionar um recurso de perda de tempo. Então, eu tenho backtesting um sistema semelhante com alavancagem de 4x, mas um stoploss de 4% que é redefinido diariamente. Eu devo estar fazendo algo errado no meu backtest, já que estou vendo cerca de 50% CAGR com apenas cerca de 50% de redução máxima. Isso foi backtested no emini de volta ao seu início em 1997. Eu então ampliei a alavancagem para 10X, com um stop loss de 1%, e estou vendo alguns retornos loucos, com rebaixamentos não razoáveis. Estou assumindo um custo de negociação de US $ 17 por contrato. Alguma ideia de onde um novato como eu está errado? Obrigado.
b) o seu backtest agora contém mais & # 39; & # 39; implícito & # 39; encaixe (experimentando diferentes variações de stoploss) o que provavelmente significa que sua taxa de sharpe é superestimada devido ao overfitting.
c) como um sistema único e demorado, os seus retornos são exagerados porque os retornos patrimoniais passados ​​e os retornos do faturamento são provavelmente muito menores no futuro (principalmente devido à inflação mais baixa)
d) porque o SR realizável é provavelmente muito menor do que você pensa, executá-lo com alta alavancagem é extremamente perigoso.
e) esses tipos de sistemas (ações ou títulos do Tesouro) são tóxicos com alavancagem, pois têm baixo risco médio, mas alto risco de pico. Um choque de mercado quando você é 100% em ações e 10 vezes alavancagem irá matá-lo antes que você possa sair da sua posição.
f) Com um stoploss de 1%, você estará negociando quase todos os dias com um período de detenção muito curto. Você precisa de dados intradiários e precisa testar o efeito de atrasar seus preenchimentos por uma hora. até um dia ou até vários dias (pense em outubro de 87 ou setembro de 2001). Você também precisa ter certeza de que seus custos comerciais estão localizados. Qual% de sua conta está pagando em custos anualmente?
Obrigado pela sua resposta abrangente, Rob. Eu acho que meu erro principal foi assumir que meus stoplosses seriam preenchidos rapidamente com uma quantidade aceitável de derrapagem. Eu não percebi que eles poderiam ser adiados por várias horas ou dias.
É mais seguro assumir que você foi preenchido no mínimo do dia - cerca de 22%.
Robert, obrigado pela informação inestimável que você coletou e gastou o tempo para compartilhar.
Ao olhar para o seu método para recuperar informações de conta e posição do IB, uma de suas duas "Obter posições e informações contábeis" links mostrados como quebrados.
O objetivo era verificar como seu código retorna de uma falha / falha (Python, sistema.) E tentar restaurar a posição antes da falha. Por exemplo. O código salva em uma posição de banco de dados e conta após cada troca para recuperação e relatório de desastres futuros?
Você pode me dizer em qual página o link está e o endereço para o qual ele está tentando se vincular.
Na negociação, vejo que a volatilidade intradiária do preço é mais do que o esperado pelo desvio padrão dos retornos diários. Eu acho que é porque apenas os preços de fechamento do dia são usados. E se eu obtiver volatilidade diária de maneira diferente, com base nos retornos, que são o movimento máximo de preço do fechamento anterior? Isto é, Eu uso High, Low do dia atual e Close do dia anterior e eu comparo abs (High / Close - 1) vs abs (Low / Close - 1) para aumentar, mas armazeno seu valor com sinal, não abs. Em seguida, EMA suavizando como de costume. Eu testei o método e, para os meus instrumentos, ele mostra uma volatilidade de cerca de 30% a mais do que o método original. Ele permite evitar grandes movimentos de capital intradía, mas, não consigo entender, diminui os lucros ou não diminui, porque o capital usado para obter posições se torna menor.
Você não deve esperar que isso aumente ou diminua seus lucros, mas é verdade que adicionar mais informações (por exemplo, movimentos de preços durante o dia) deve fornecer uma previsão melhor de volatilidade; então, se você medir o volume esperado versus o realizado, provavelmente vai aparecer um pouco melhor.

Artur Sepp Research Blog: Modelagem e Negociação de Volatilidade.
Diversificação da ciclicidade Risco de estratégias quantitativas de investimento: apresentação de slides e webinar Q & amp; A.
Postado em 17:21 por artursepp, em 1 de dezembro de 2017.
Qual é o fator contribuinte mais significativo para o desempenho de um fundo quantitativo: seus geradores de sinal ou seus alocadores de risco? Ainda podemos ter sucesso se possuímos bons geradores de sinal, mas um gerenciamento de risco fraco? Como devemos alocar para um portfólio de estratégias quantitativas?
Eu desenvolvi um modelo top-down e bottom-up para alocação de portfólio e gerenciamento de risco de estratégias quantitativas. Os leitores interessados ​​podem encontrar os slides da minha apresentação aqui e podem assistir ao webinar ser visto no youtube.
Ao preparar essa apresentação, encontrei uma recente entrevista perspicaz do comerciante Ex-LTCM, Victor Haghani. Embora possamos nos sentir sensíveis para seguir os conselhos de uma ex-pessoa da LTCM, há muita sabedoria nas palavras de Haghani:
"Percebi que investir envolve dois problemas: o primeiro é identificar oportunidades atraentes de investimento e o segundo é dimensioná-los" "Noventa por cento da literatura é sobre como você pode encontrar as gemas, sejam elas estratégias ou reais investimentos ”“ O segundo problema parece bastante pedestre mas, na verdade, esse é o crítico ”“ O dimensionamento do trade é o que resultou no fracasso do LTCM ”
Da mesma forma, depois de muitos anos cheguei à mesma conclusão:
O dimensionamento do comércio e a capacidade de gerenciar dinamicamente nossas exposições ao risco junto com a infra-estrutura de som são o que mais contribuiria para o nosso desempenho a longo prazo.
De fato, todas as oportunidades de investimento “atraentes” são bem conhecidas e documentadas na literatura acadêmica e industrial. Para uma enciclopédia de estratégias quantitativas, refiro-me ao excelente livro "Devoluções esperadas" de Antti Ilmanen. Na verdade, penso que mais de 95% de todas as soluções de investimentos de quant continham algumas modificações de estratégias de base apresentadas e analisadas na enciclopédia. Além disso, alguns dos principais fundos quant agora também estão interessados ​​em compartilhar alguns de seus conhecimentos. Como exemplos muito bons, vou me referir a: “Dois séculos de tendência seguindo” pela equipe de quantum do CFM e “Trend Following: Equity e Bond Crisis Alpha” por AHL quants.
À luz de toda a quantidade de pesquisas de alto calibre em domínio público, não acho que haja muita vantagem em tentar "descobrir" uma nova estratégia sustentável. Claro, existem muitas maneiras de gerar sinais para, digamos, as estratégias de carry ou trend-following. No entanto, o que esses sinais nos fornecem são os pontos de entrada / saída e não as formas de gerenciar nosso portfólio em várias estratégias.
Poderíamos, ao contrário, “descobrir” uma vantagem no desenvolvimento de modelos para gerenciar nossas estratégias de risco?
Todos sabemos o que aconteceu com o LTCM no final. É geralmente mencionado que LTCM falhou apesar de ter dois vencedores do prêmio Nobel a bordo. No entanto, acredito que o que matou o LTCM não foram seus modelos acadêmicos “alfa”, mas seu gerenciamento de risco insatisfatório. Eventualmente, o LTCM pode ter falhado na compreensão da ciclicidade e do risco de liquidez de suas estratégias, bem como assumir muito risco alavancado em estratégias de transporte com forte correlação de cauda no alto regime de volatilidade (mesmo que essas estratégias pareciam não estar correlacionadas com baixa volatilidade regime).
O que então deve ser considerado ao projetar e executar um portfólio de estratégias quantitativas de investimento? Eu acho que precisamos considerar os seguintes três componentes principais.
1) Ao nível das estratégias individuais: devemos procurar compreender o risco de ciclicidade de cada estratégia individual. Por exemplo, uma estratégia supera ou submete no regime uma tendência, uma reversão à média ou uma baixa volatilidade? Devemos então garantir que a estratégia tenha um "alfa" positivo ao longo do período que inclui o ciclo desfavorável.
Nunca devemos confiar em nossa capacidade de ajustar o tempo ao ciclo de mercado para uma estratégia individual, embora possamos tentar ciclos de tempo no nível do portfólio. Neste estágio, devemos classificar estratégias que tenham uma exposição muito forte ao risco de ciclicidade, com pouca compensação para suportar esse risco.
2) No nível da classe de estratégia: Depois de construirmos modelos para gerar sinais em estratégias individuais, agora podemos construir um alocador para um portfólio de classes de estratégia. Por exemplo, para uma carteira de estratégias de transporte, teremos como objetivo diversificar sinais e riscos de componentes de estratégia, considerando o universo de ativos múltiplos, juntamente com uma alocação baseada em risco.
Desta forma, temos como alvo a alocação de componentes com as maiores taxas de recompensa esperada para o risco. Escusado será dizer que os alocadores de risco baseados em covariâncias tradicionais só podem diversificar o risco idiossincrático dos componentes da estratégia.
Embora a paridade de risco possa ser uma estrutura sólida, ainda é uma avaliação retrospectiva do risco. Dentro da classe de estratégia (digamos, carry ou trend-following), podemos apenas procurar diversificar o risco idiossincrático dos componentes da estratégia, e não o risco sistêmico da classe de estratégia.
3) No nível da carteira: A etapa final envolve a alocação para as classes de estratégia que identificamos na segunda etapa e incorporamos algumas medidas de risco voltadas para o futuro. Por exemplo, como devemos alocar entre as estratégias de carry e acompanhamento de tendências no atual ciclo de mercado?
Poderíamos considerar as duas abordagens: as alocações de cima para baixo e de baixo para cima. Para a alocação de cima para baixo, estimamos e prevemos os regimes de mercado e fazemos alocação tática às nossas classes de estratégia. Para a alocação de baixo para cima, geramos cenários para fatores de risco e projetamos a P & amp; L de estratégias vivas e, finalmente, equilibramos suas exposições aos fatores de risco.
Portanto, se pudéssemos entender o risco de ciclicidade das estratégias no nível individual e pudéssemos prever os ciclos, reduziríamos dinamicamente nossa exposição a estratégias de baixo desempenho quando confrontados com seus ciclos desfavoráveis. Ao mesmo tempo, poderíamos aumentar a exposição a estratégias que deverão superar o ciclo atual.
Eu escrevi algumas anotações para a parte Q e A do webinar.
Q & amp; A do webinar.
1) Como você reduz o risco de ciclicidade? Você prevê regimes de ciclicidade?
Como você prevê e protege? Você usa modelos de Markov?
Quão sensíveis são os resultados para a identificação do regime?
Sim, eu uso um modelo de cadeia de Markov com os três regimes para o ciclo com deriva positiva e pequena volatilidade, para o ciclo com dinâmica ligada ao intervalo e para o ciclo estressado com grande volatilidade. Eu aplico esse modelo para produzir previsões regulares para o universo de vários ativos e aplico uma combinação de probabilidades inferidas para fazer alocações táticas.
Eu não protegiria o risco do ciclo diretamente por causa do risco de previsão e dos custos de negociação. Alguns hedging provêm de estratégias de sobreposição que funcionam de forma diferente em diferentes ciclos. No nível de projeto de estratégia, precisamos garantir que a estratégia produz alfa positivo em um período de longo prazo que também inclua seu ciclo desfavorável. Não podemos confiar em nossa capacidade de cronometrar os ciclos para transformar uma estratégia altamente cíclica em uma gema. No nível da aula de estratégia, podemos confiar parcialmente na diversificação, juntamente com um método de paridade de risco que ajudará a reduzir a exposição a componentes com baixo desempenho da classe de estratégias.
A chave para reduzir a sensibilidade à identificação do regime é alocar estratégias que superam em regime diferente. Como eu mostro, até mesmo uma combinação estática de estratégias de carry, seguimento de tendências e reversão à média produz uma melhoria significativa do perfil de risco-recompensa.
2) Você poderia expandir um pouco mais sobre a filtragem de valor relativo para estratégias de transporte de volatilidade?
Que tipo de filtro você usa?
Para negociação de volatilidade, eu aplico um modelo de volatilidade estocástica com caudas pesadas que é estimado usando dados de séries temporais. Usando este modelo, deduzi o valor estatístico de uma opção, os custos de cobertura de delta associados e o risco de gap. Como resultado, estimo o valor estatístico das opções junto com seus custos de hedge. Finalmente, comparo os valores estatísticos com os preços negociados no mercado em vários ativos e crio um ranking com base em raciocínios de recompensa para risco, que são então utilizados para sinais de negociação. A vantagem da abordagem de valor relativo é que ela não precisa de variáveis ​​externas para tomar decisões comerciais. Eu vi muitas estratégias de volatilidade que estão condicionadas a várias variáveis ​​externas, por exemplo, uma performance recente do índice S & P 500, o VIX, o termo estrutura dos futuros VIX, etc. Nada disso faz sentido porque todos regras determinísticas são projetadas para otimizar o back-test e a estratégia não pode se adaptar no futuro. A única abordagem razoável é estimar o valor relativo da replicação de opções e criar um modelo que possa produzir previsões precisas para a volatilidade e distribuição dos retornos de preços.
3) Não é o risco do modelo de tamanho premium dependente das opções?
Sim, o prêmio de risco depende do modelo das opções. A razão é simples. Por um lado, fazemos o delta-hedging, nosso delta e, como resultado, o P & amp; L projetado dependerá da escolha de nosso modelo de hedge e seu método de estimativa, bem como nossas especificações para execuções de cobertura de delta. Por outro lado, quando aplicamos um modelo para delta-hedging e geração de sinal, precisamos estimar os parâmetros do modelo e não há uma maneira única de fazer a estimativa. Como resultado, a maneira correta de analisar o prêmio de risco é desenvolver um modelo estatístico que possa reproduzir características empíricas da dinâmica de ativos, juntamente com os métodos de hedge. Claro, existe um modelo de risco & # 8230; Podemos reduzir o risco do modelo treinando nosso modelo para fazer previsões de estatísticas realizadas de retornos de preços e analisar sua capacidade preditiva.
4) Você usa informação implícita de opção para inferir probabilidade de regime? Obrigado!
Não neste momento, eu não uso nenhum, mas acredito que a opção implícita de dados pode ser usada para quantificar os limites de risco condicional ao regime e isso pode ser aplicado para estratégias de negociação. Eu implementei um modelo semelhante para prêmios de risco em swaps de default de crédito há algum tempo. Gostei muito das implicações desse modelo porque o modelo mostrou que uma parte significativa dos prêmios de risco é atribuída ao regime de estresse, em que os spreads de crédito aumentam em maior quantidade devido ao risco sistêmico. Os prêmios de risco realizados em regimes normais em todas as estratégias de carry podem ser vistos como compensação esperada para suportar perdas em regimes de estresse. Como resultado, a compreensão da ciclicidade dos prêmios de risco a partir dos dados de mercado implícitos é importante para o planejamento de estratégias de negociação. Está no topo da minha lista para implementar um modelo condicional de regime para prémios de risco de volatilidade onde eu também aplicaria os dados do mercado de opções para a inferência.
5) Qual é a maturidade da estratégia short straddle no slide 8? Surpreende-me que a estratégia tenha parado há 6 anos.
É uma ilustração de uma estratégia de volatilidade curta que rola no dinheiro no índice S & P 500. É uma estratégia de volatilidade simples que é sobre o ponto de neutralidade do delta no início de cada rolo, mas não se aplica ao hedge delta até a expiração da opção em um mês. A estratégia está paralisada nos últimos anos por causa da tendência positiva no índice S & P500: na maioria das vezes, o segmento de chamada foi exercido com custos de exercício superiores ao prêmio pago. De fato, a estratégia retornou 40% durante a recuperação do mercado em 2009, de modo que é o nível de risco de volatilidade que mais importa. É verdade que as estratégias que vendem posições nuas ou futuros curtos VIX sem cobertura de delta têm tido desempenho nos últimos anos. No entanto, essas estratégias são sempre delta de índice longo com uma correlação muito forte com o índice, de modo que seu desempenho é em grande parte atribuído ao desempenho positivo do índice S & amp; P 500. O ponto de ilustrar esta estratégia é porque é uma estratégia de volatilidade simples que supera o regime de reversão média, mas que se encontra abaixo do baixo regime de volatilidade. Um popular acredita que as estratégias de baixa volatilidade superam em regime de baixa volatilidade não é correto da minha experiência. Nas minhas implementações, as estratégias de transporte de volatilidade são projetadas para se beneficiar da reversão média e da dispersão, mas não da baixa volatilidade diretamente.
6) Você usa qualquer tipo de filtros bayesianos? Como os filtros de Kalman?
Sim, desde que meus estudos de doutorado em estatísticas favorecem a inferência bayesiana e estatísticas robustas. O filtro Kalman é necessário para estimar e prever os regimes de mercado. Para a estimação do modelo de volatilidade estocástica para negociação de volatilidade, aplico uma estimativa bayesiana que permite introduzir alguma distribuição prévia para a volatilidade. Pela minha experiência, pelo condicionamento adequado dos parâmetros do modelo, podemos alcançar estimativas mais estáveis ​​e previsões mais confiáveis.
Artur Sepp trabalha como estrategista quantitativo na empresa suíça de gestão de patrimônio Julius Baer em Zurique. Seu foco é em modelos quantitativos para estratégias sistemáticas de negociação, alocação de ativos baseada em risco e negociação de volatilidade. Antes disso, a Artur funcionou como um quantum de frente no patrimônio e crédito no Bank of America, Merrill Lynch e Bear Stearns, em Nova York e Londres, com ênfase na modelagem de volatilidade e na avaliação de derivativos multi-e cross-asset, negociação e gerenciamento de riscos . Sua área de pesquisa e especialização são em análise econométrica de dados, aprendizado de máquina e métodos computacionais com suas aplicações para estratégias de negociação quantitativa, alocação de ativos e gerenciamento de riqueza. Artur tem um PhD em Estatística focado em interromper problemas de tempo de processos de jump-diffusion, um mestrado em Engenharia Industrial pela Northwestern University em Chicago, e um BA em Mathematical Economics. Artur publicou vários artigos de pesquisa sobre financiamento quantitativo em periódicos líderes e é conhecido por suas contribuições para volatilidade estocástica e modelagem de risco de crédito. Ele é membro do conselho editorial do Journal of Computational Finance. Artur mantém um blog regular sobre quant finance e trading na artursepp.
As opiniões e análises apresentadas neste artigo são de responsabilidade exclusiva do autor e não representam nenhuma das opiniões de seu empregador. Este artigo não constitui um aviso de investimento.
Compartilhar isso:
Modelagem e Negociação de Volatilidade: Apresentação do Workshop.
Postado em 5:13 pm por artursepp, em 1 de novembro de 2017.
Enquanto escrevo, a extrema volatilidade nos mercados financeiros continuou no ano de 2016, sem perspectivas de redução no futuro. Está se tornando habitual culpar a volatilidade como motivo de aversão excessiva ao risco e desempenho de investimento fraco. No entanto, se você tiver a mentalidade certa e estratégias para se beneficiar dessas oscilações, você pode realmente dar boas-vindas a esse tipo de mercado volátil. Existe, de fato, prova de que os fundos de quantos superaram seus pares em 2016 (veja o artigo de Bloomberg) Continue lendo!
Compartilhar isso:
Vendendo a volatilidade em um regime de baixa volatilidade: o nível atual da volatilidade é um fraco preditor para o desempenho futuro.
Postado em 6:10 por artursepp, em 31 de outubro de 2017.
Introdução.
No meu último post, discuti a crescente popularidade e demanda por estratégias de investimento nos prêmios de risco de volatilidade. Uma das questões recorrentes que surge quando discuto este tópico é se faz sentido alocar essas estratégias em um regime de baixa volatilidade. Neste post, apresentarei evidências de que o nível atual da volatilidade implícita serve como um fraco preditor para o desempenho de uma estratégia de volatilidade curta. Em vez disso, os dois fatores são significativos para explicar e prever o desempenho da estratégia de volatilidade curta: primeiro, a volatilidade realizada do VIX e, segundo, o rendimento de produção associado à estrutura a termo dos futuros VIX.
Fatores explicativos para atribuição de retorno de estratégias de volatilidade curta.
Na minha experiência, acho que os dois fatores são significativos para explicar e prever o desempenho da estratégia de volatilidade curta:
A volatilidade realizada do VIX ou, em outras palavras, a volatilidade realizada da volatilidade implícita. Este fator está relacionado à volatilidade realizada da estratégia de volatilidade curta e, como resultado, mede o risco realizado da estratégia de volatilidade. O rendimento do rolo da curva de futuros VIX ou, alternativamente, o custo de transportar a posição de opção longa. Este fator está relacionado à rentabilidade esperada da estratégia de volatilidade curta que vende opções ou futuros VIX. A curva de futuros VIX é tipicamente no contango com a estrutura de prazo inclinada para cima. O efeito contango é causado pelo custo de transporte de uma posição de opção longa.
Esses dois fatores podem explicar até 60-70% dos retornos da estratégia de volatilidade curta. O que é mais relevante para estratégias quantitativas é que esses dois fatores podem ser previstos:
Por um lado, tanto a volatilidade quanto a volatilidade realizada da volatilidade exibem o efeito de clustering, quando os períodos de alta volatilidade e alta volatilidade realizada tendem a ser seguidos pelos períodos com alta volatilidade. Por outro lado, a volatilidade exibe o efeito de reversão média em prazos mais longos, quando a volatilidade tende a significar - reverter do regime com alta volatilidade para o regime com baixa volatilidade. A Figura 1 ilustra a série temporal do VIX e a Figura 2 exibe a volatilidade realizada do VIX, que é calculada como a volatilidade realizada dos retornos de log diários no VIX. O rendimento da bobina no futuro VIX também é caracterizado pela dinâmica de reversão de média, com cerca de 80% das observações sendo negativas quando a curva de futuros está no contango. A Figura 3 mostra as séries temporais do rendimento mensal médio do rolo. O rendimento mensal médio dos futuros VIX calculado como o spread entre os futuros do primeiro e segundo mês, dividido pelo preço do prazo de vencimento constante de um mês.
Nós vemos isso, enquanto o nível do VIX foi realmente muito baixo e bem abaixo da média da amostra nos últimos dois anos, a volatilidade dos retornos diários VIX foi realmente maior que a média na amostra. Short volatility strategies and, in particular, the strategy selling the VIX futures have been highly profitable over the last two years because of the roll yield that was higher than the average. Finally, the roll yield is somewhat correlated with the realized volatility of the VIX with the Spearman rank correlation of 38%.
Figure 1. The VIX at the month start.
Figure 2. The realized volatility of the VIX.
Figure 3. The average monthly roll cost of the VIX futures.
Metodologia.
Estratégias de investimento.
In my analysis, I apply the time series of the four strategies summarised in Table 1:
The total return strategy on the S&P 500 which serves as an equity benchmark for short volatility strategies. The CBOE put write strategy which sells at-the-money put options on the S&P 500 index quarterly. This strategy is computed by the CBOE and dates back to year 1986. The strategy shorting one month constant maturity futures on the VIX. The strategy is computed by Bloomberg and it dates back to year 2005. The exchange traded product that replicates this strategy started to trade in 2011 with the ticker XIV. The dynamic VIX strategy which trades in the one month constant maturity futures on the VIX both on the short and long side using signals generated by a proprietary model. This quantitative strategy employs the two key factors considered here for the signal generation. Presented is the back-tested performance on this strategy.
Table 1. Considered strategies.
Figure 4 displays the realized performance of the strategies since the inception. It is remarkable that the Put Write strategy has generated total returns comparable to the total return on the S&P500 index yet with smaller volatility and drawdowns. The strategy shorting the VIX futures has had a stellar performance over the past two years, but it went through an intolerable drawdown of -92% during the financial crisis in 2008. The dynamic strategy applies quantitative rules to switch between short, long, and neutral exposure, which enables it to perform in all market conditions.
Figure 4. Performance of 1$ NAV since strategy exception.
Conditioning of monthly returns.
The goal of my analysis is to attribute realized monthly returns on the four strategies to particular market regimes as defined by historical values of explanatory variables. Monthly returns on each of the strategy are split into the four buckets using the values of the three conditioning variables:
VIX at the month start; Realized volatility of daily returns on the VIX in the given month; The average monthly roll yield on the VIX futures computed as the spread between the first and the second month futures divided by the price of the constant maturity one month future.
The four buckets are defined by the quantiles of the conditioning variables so that these buckets correspond to the four states of the conditioning variable from the low regime to the extreme regime:
[0-25%] quantile is the low regime; [25-50%] quantile is the medium regime; [50-75%] quantile is the high regime; [75-100%] quantile is the extreme regime.
Table 2 and Figure 5 report and illustrate the quantiles of the explanatory variables and the associated regimes. The regime-conditional monthly returns indicate the strategy sensitivity to the given regime of the explanatory variable.
Table 2. In-sample quantiles of the explanatory variables and inferred regimes.
Figure 5. Quantiles of explanatory variables.
Analysis of regime conditional performance.
For each strategy I compute monthly returns and then assign these returns to the four buckets using the value of the explanatory variable observed in the given month and its bucketing quantiles.
Returns conditional on the VIX at month start.
Figure 6 illustrates the average monthly returns on strategies conditional on the VIX at the month start. I present the annualized monthly returns, which are obtained by multiplying the monthly return by 12, not geometric or compounded returns. Because of the volatility drag, the annual compounded return is 23% on the short VIX strategy compared to the annualized monthly average return of 42%. For simplicity of reporting and analysis, I resort to annualized monthly returns. The unconditional returns are obtained as the average of the whole sample without conditioning with the average of the regime conditional returns equal to the unconditional return. The reported performances must be interpreted as relative measures.
We see that monthly returns on the S&P 500 index and the Put Write index are not dependent on the VIX at month start. The short VIX strategy and the dynamic strategy perform better in the regime with high VIX. However, the risk adjusted returns adjusted by the volatility and measured by the Sharpe ratios do not differ significantly across different regimes because, in the regime wihh high VIX, the strategies also produce higher volatility of the realized performance.
Figure 6. Average annualized monthly returns conditional on the VIX at the month start.
Returns conditional on the monthly realized volatility of the VIX.
Figure 7 reports the average monthly returns conditional on the realized volatility of the VIX.
We see that the realized volatility of the VIX or, in other words, the realized volatility of the volatility produces much stronger explanatory power than the VIX itself. In particular, the S&P 500 index, the Put Write and short VIX strategies all produce negative average returns only in the regime with the extreme volatility of the volatility while the highest returns and risk-adjusted ratios are achieved in the regime with the low realized volatility of the VIX.
The dynamic VIX strategy applies the forecast of the expected realized volatility of the VIX as a one of the risk-control parameters so that, as a result, it is able to avoid losses in the regime of extreme realized volatility.
Figure 7. Average annualized monthly returns conditional on the monthly realized volatility of the VIX.
Returns conditional on the VIX futures roll.
Figure 8 reports average monthly returns conditional on the VIX futures roll yields. Similarly to the realized volatility of the VIX, VIX roll yields provide a strong explanatory power on all strategies. I recall that the Spearman rank correlation between the realized volatility and roll yields is 38% in-sample, so both variables provide distinct insight.
We see that all four strategies achieve the best returns as well as risk-adjusted ratios when the roll yields are below the median. The dynamic strategy is using the roll yields as one of the risk-control parameters and attempts to avoid concentrated trading for regimes with low roll yields so that it tend to produce slightly negative performance in the regimes with low roll yields.
Figure 8. Average annualized monthly returns conditional on the monthly average roll yields on the VIX futures.
Concluding remarks.
I conditioned the monthly performance of volatility trading strategies on the key observable variables including the VIX at the month start, the monthly realized volatility of returns on the VIX, and the average roll yields on VIX futures. I showed that the conditional performances and the risk-adjusted performances on all strategies do little depend on the VIX level. Instead, the realized volatility of the VIX and the roll yields on the VIX futures provide significantly stronger explanatory power.
Figure 9 illustrates the explanatory power R^2 of the regression of monthly returns on the strategies using the monthly realized volatility of the VIX and monthly VIX futures roll yields as explanatory variables.
Figure 9. Explanatory power of the regression of monthly returns with the realized volatility and the roll yield as predictors conditional on the VIX as the start of the month.
We see that for the strategy shorting the VIX futures, the explanatory power of this regression is very strong at about 60% across all regimes of the VIX. Moreover, the explanatory power does not depend on the VIX regimes.
To conclude, I can answer the question about shorting volatility in the regime with the low implied volatility in the following way:
While the volatility strategies shorting the implied volatility produce better risk-adjusted returns in periods with higher levels of the implied volatility, the realized volatility of the VIX and the roll costs on the VIX futures play much stronger explanatory role in predicting the future performance of volatility strategies. The ability to quantify and forecast these variables is far more important for a dynamic quantitative strategy than choosing an appropriate level of the implied volatility for timing entry and exit points.
Artur Sepp works as a Quantitative Strategist at the Swiss wealth management company Julius Baer in Zurich. His focus is on quantitative models for systematic trading strategies, risk-based asset allocation, and volatility trading. Prior to that, Artur worked as a front office quant in equity and credit at Bank of America, Merrill Lynch and Bear Stearns in New York and London with emphasis on volatility modelling and multi - and cross-asset derivatives valuation, trading and risk-managing. His research area and expertise are on econometric data analysis, machine learning, and computational methods with their applications for quantitative trading strategies, asset allocation and wealth management. Artur has a PhD in Statistics focused on stopping time problems of jump-diffusion processes, an MSc in Industrial Engineering from Northwestern University in Chicago, and a BA in Mathematical Economics. Artur has published several research articles on quantitative finance in leading journals and he is known for his contributions to stochastic volatility and credit risk modelling. He is a member of the editorial board of the Journal of Computational Finance. Artur keeps a regular blog on quant finance and trading at artursepp.
The views and analysis presented in this article are those of the author alone and do not represent any of the views of his employer. This article does not constitute an investment advice.
Compartilhar isso:
Allocation to systematic volatility strategies using VIX futures, S&P 500 index puts, and delta-hedged long-short strategies.
Posted at 3:45 pm by artursepp , on September 20, 2017.
I present a few systematic strategies for investing into volatility risk-premia and illustrate their back-tested performance. I apply the four factor Fama-French-Carhart model to attribute monthly returns on volatility strategies to returns on the style factors. I show that all strategies have insignificant exposure to the style factors, while the exposure to the market factor becomes insignificant when strategies are equipped with statistical filtering and delta-hedging. I show that, by allocating 10% of portfolio funds to these strategies within equity and fixed-income benchmarked portfolios, investors can boost the alpha by 1% and increase the Sharpe ratio by 10%-20%.
It is becoming acknowledged that volatility strategies should constitute an integral part of allocation to alternatives in portfolios of institutional and HNW investors. Indeed, both the academic and the practical experience indicate that volatility strategies produce robust risk-adjusted long-term performance, when properly designed and executed.
The growing investors’ demand for transparent solutions has been recently met by algorithmic strategies and exchange-traded funds offered by major institutions. These algorithmic strategies provide multiple solutions to invest and allocate to volatility strategies in a direct and transparent way. Yet, investors and allocators must make the ultimate decision about selecting and allocating to appropriate investment solutions.
Importantly, investors need to carefully consider the following aspects by allocating to volatility strategies:
The design of a systematic strategy, which most importantly includes what instruments should be traded, the rebalancing frequency, and the delta risk exposure. The marginal contribution of the volatility strategy to the risk of the investor’s portfolio and the contribution to the risk performance over the investor’s benchmark.
In this note, I will describe a quantitative approach along with back-test simulations to answer these questions to make the allocation decision. I will present a few examples and draw interesting conclusions.
Algorithmic strategies for investing in volatility.
Asset universe.
I will only consider the volatility carry strategies which involve selling and shorting the volatility to capture the volatility risk-premia. I will deal with products linked to the volatility of the S&P 500 index given its depth and liquidity and will consider the three algorithmic strategies.
Put strategy which involves selling one month at-the-money put option on the S&P 500 index on the third Friday of each month. This strategy is similar to PutWrite algorithmic index designed by CBOE. Strangle strategy which involves selling one month out-of-the money put option with the option delta of about -20 and out-of-the money call option with the option delta of about 20. In essence, the strategy is close to the Condor algorithmic index provided by CBOE. VIX strategy which selling constant maturity one month VIX future. This strategy is similar to inverse VIX ETFs such as XIV ETF designed by Velocity Shares.
In table 1, I provide some details about these strategies.
Table 1. The description of the algorithmic strategies.
ii) Exposure to skew and convexity risk-premiums.
ii) Significant beta to the S&P 500 index in tail events.
The key attribute of these strategies is the source of the profit-and-loss.
The Put strategy is a play on both the positive performance of the S&P 500 index as it has a significant delta exposure (about 50% at the inception on each month) and the volatility premium measured by the difference between the realized volatility and market implied volatility for at-the-money options. The expected and realized long-term performances of the S&P 500 index are positive because of the equity-risk premium, while the market implied volatility overestimates the realized volatility over long-term horizons. As a result, this simple strategy tends to outperform the S&P 500 index in the long-term. According to this study sponsored by the CBOE, since mid-1986 to 2012, the total realized return on the CBOE put strategy is 10.4% per annum vs 9.3% annualized total return on the S&P 500 index. Yet Put index has smaller volatility and drawdowns than the S&P 500 index. The Strangle strategy is a play on market implied volatilities for out-of-the money puts and calls. This strategy is about delta-neutral at the inception in each month and benefits from higher skew for index puts and implied convexity for puts and calls. The VIX strategy is a play on the contago in the term structure of VIX futures. The contago effect is produce by expectations of higher volatility in the future and higher hedging costs for the future uncertainty. Given that the volatility is mean-reverting over long periods of time, the only contributor to the VIX strategy is the roll yield associated with the contago effect, which is about 90% in annual terms.
Design of hedging strategies.
Compared to other asset classes, volatility strategies tend to exhibit higher drawdowns relative to their historical volatilities and strongly negative skewness of realized returns. As a result, implementation of these strategies requires the design of the systematic hedging algorithms.
For each asset, I will consider the following hedging approaches:
Vanilla: no hedging is performed, the strategy executes rolls systematically at each rebalancing day. Filter: the statistical relative value of the strategy is computed at each roll date. The relative value involves applying a time series model which uses data strictly prior to the roll date and computing the expected value of the roll based on the available historical information. If the expected value of the strategy is less than defined threshold, the roll is not executed at given rebalancing date. The filter enables to make a quantitative judgment about the expected profitability of each roll given prior historical information. If the expected performance falls below the desired threshold, the roll is not executed. No hedging is executed through the life of the roll.
3a. Filter+Hedge: the strategy applies the filter as described above. If the roll passes the filter, the strategy will sell options and implement the delta-hedging strategy upto the option expiry. The delta-hedging strategy is only applied for the PUT and Strangle strategies which involve trading in options directly and have well-defined delta exposure.
3b. Filter+ Long/Short: this strategy applies only for the VIX strategy. First the strategy applies the filter and, dependent on the signal strength, it enters either short (when the VIX futures term structure is in contago) or long positions (when the VIX futures are in backwardation).
In table 2, I present the summary of the nine strategies. For the ease of visualization, I will use red color for strategies with no hedge, blue color for the strategies with the statistical filter, and green color for strategies with the filter and hedge.
Table 2. Characteristics of the hedging strategies.
Volatility targeting.
To align the risk-profile of each strategy and make meaningful comparisons, I will apply the volatility targeting with the annual volatility target set to 10%.
The volatility targeting is implemented in the two steps:
The unleveraged strategy is implemented. For the put and strangle strategies, the number of option contract is computed at each roll date as the strategy funds divided by the put strike. The number of contract for the VIX futures is computed as the ratio of strategy fund to the price of the constant maturity one month VIX futures. As an illustration, the realized historic volatility is about 10% for Put strategy, 5% for Strangle strategy, and 50% for the VIX strategy. The master strategy is created by allocating to the unlevered strategies with the leverage determined to target the long-term volatility of 10% per annum. The volatility of each of the unleveraged strategies is computed at each roll dates using the time series strictly prior to the roll. The volatility of the strategy with the relative value filter is computed only when strategies have open positions.
Back-tested performance of individual strategies.
I use the period from January 2005 to September 2017 (the VIX futures trading started in October 2005). As the benchmarks, I use the three assets:
The S&P 500 index (labelled as S&P500) with the performance computed using ETF SPY. 20 year US treasury bonds (labelled as USbonds20y) with the performance computed using ETF TLT. The 50%/50% portfolio including the S&P 500 index and 20 year US treasury bonds (labelled as S&P500/USbonds20y) implemented using ETFs SPY and TLT, respectively, with monthly rebalancing to keep the constant 50%/50% exposure.
The realized total performance of the benchmarks includes dividends distributed by these ETFs.
In table 3, I show the back-tested performance of the volatility strategies. Figure 1 illustrates the Sharpe ratio vs the maximum drawdown. Figure 2 illustrates the strategy alpha vs beta. The alpha and beta are estimated by regressing the monthly performance of the strategy explained by the monthly performance of the S&P 500 index. The monthly alpha from the regression is annualized. Table 4 reports the realized correlation matrix of monthly returns on these strategies.
Table 3. The back-tested performance of volatility strategies from 2005 to September 2017.
Notations: Return is the total annualized return. Vol is the volatility of monthly returns. Sharpe is the Sharpe ratio using monthly volatility. Skewness and Kurtosis are the skewness and excess kurtosis of monthly returns, respectively. Max DD and Max DD recovery are the maximum drawdown and days to recover from it, respectively. Alpha and Beta are the coefficients of the regression of monthly returns on the strategy against the monthly returns on the S&P 500 index; the reported alpha is the annualized.
Figure 1. Backtested Sharpe ratio vs max drawdown.
Figure 2. Strategy alpha vs beta computed by regressing monthly performance of the strategy explained by the monthly performance of the S&P 500 index.
Table 4. The correlation matrix of realized monthly returns.
Vanilla strategies produce Sharp ratio comparable to the S&P 500 index but with smaller drawdowns. They have beta about 0.5 to the performance of the S&P 500 beta and insignificant alpha. They are also strongly correlated among each other with average correlation of 0.7.
The strategies with filter improve the Sharpe ratio twofold and reduce the drawdown by about 50%. They also produce a smaller beta of about 0.2 to the S&P 500 index with statistically significant alpha. Their average pair-wise correlation is about 0.5 indicating that opportunities and signals are relatively correlated.
The strategies with the filter and delta-hedging produce the strongest risk adjusted performance with very small beta and significant alpha. Their pairwise correlation is 0.25 indicating a potential diversification benefit by allocating to the basket of these strategies. The VIX strategy with Long/Short exposures has actually produced the negative correlation and betas to all three benchmarks, so that it can serve as a good diversifier for equity portfolios.
Return Decomposition into the Factor Model.
I apply the four factor Fama-French-Carhart model to relate monthly returns on the strategies into the monthly returns on the market factor (MRK), the size factor (SML), the book-to-market value factor (HML), and momentum factor (UMD). I use the AQR data for monthly returns on the factors estimated using US stocks.
Table 5 reports the estimated coefficients of the 4-factor model. We see that all strategies have insignificant exposures to the style factors. Only the put strategy has a significant exposure to the momentum factor, which is intuitive. The exposure to the market factor is significant for vanilla strategies, while it reduces considerably for the strategies with the filter. The strategies with the delta-hedge have insignificant exposure to the market factor.
Table 5. Estimated exposures to Fama-French-Carhart 4-factor model using monthly returns from 2005 to September 2017.
Notations: Alpha is the annualized alpha, MRK is the beta to the market factor, SMB is the beta to the capitalization factor (small minus big), HML is the beta to the book-to price value factor (high minus low), is the beta to the momentum factor (up minus down). R^2 is the explanatory power of the regression. The value of the t-statistics is provided in the parentheses. Significant estimates are marked with *.
Back-tested performance on the portfolio level.
Now I consider the impact of the volatility strategies on the portfolio level. Again, I use the three benchmarks. For each of the tree benchmarks, I assume that 10% of the total funds are allocating to any of the 9 strategies separately with monthly rebalancing.
I define the alpha as the regression of the monthly performance of the 90%/10% portfolio invested in the benchmark and the volatility strategy, respectively, explained by the monthly performance of the respective benchmark. The annualized alpha of this regression indicates the marginal contribution of the volatility strategy to generation of the alpha for the benchmarked portfolio.
Figure 3 shows the contribution to the portfolio alpha. Figure 4 shows the % increase in the Sharpe ratio of the 90%/10% portfolio invested 90% in the benchmark and 10% in the strategy against vs 100% portfolio wholly invested in the benchmark.
Figure 3. Contribution to the portfolio alpha for thee benchmarks.
Figure 4. % Increase in the Sharpe ratio of the 90%/10% portfolio invested 90% in the benchmark and 10% in the strategy against vs 100% portfolio wholly invested in the benchmark.
Vanilla strategies have a small risk-adjusted contribution to portfolio benchmarked to the S&P 500 index or 50/50 portfolios. However, they do produce significant contribution to portfolios benchmarked to UST bonds. This is because they have equity overlay with helps to off-set the rates risk in bullish market conditions.
The strategies with the filter produce significant contribution to portfolios benchmarked to the S&P 500 index. Furthermore, they improve the risk-adjusted contribution to fixed-income portfolios by reducing the downside of the equity overlay.
The strategies with the filter and delta-hedge have a mixed contribution: the put strategy has a stronger correlation to the S&P 500 in tail events so its marginal contribution is relatively modest. Both Strangle and VIX strategies has a significant improvement of the risk-profile for all of the three benchmarks.
Conclusões.
Well-designed algorithmic strategies provide transparent solutions for investing to volatility risk-premia. The risk profile and delta exposures must be explained to investors and tailored to their portfolios and benchmarks. The volatility strategies with statistical filtering can be applied as overlays in fixed-income portfolios. The delta-hedged option strategies and long-short VIX futures strategies can be applied as absolute return strategies in allocations to alternatives.
Artur Sepp works as a Quantitative Strategist at the Swiss wealth management company Julius Baer in Zurich. His focus is on quantitative models for systematic trading strategies, risk-based asset allocation, and volatility trading. Prior to that, Artur worked as a front office quant in equity and credit at Bank of America, Merrill Lynch and Bear Stearns in New York and London with emphasis on volatility modelling and multi - and cross-asset derivatives valuation, trading and risk-managing. His research area and expertise are on econometric data analysis, machine learning, and computational methods with their applications for quantitative trading strategies, asset allocation and wealth management. Artur has a PhD in Statistics focused on stopping time problems of jump-diffusion processes, an MSc in Industrial Engineering from Northwestern University in Chicago, and a BA in Mathematical Economics. Artur has published several research articles on quantitative finance in leading journals and he is known for his contributions to stochastic volatility and credit risk modelling. He is a member of the editorial board of the Journal of Computational Finance. Artur keeps a regular blog on quant finance and trading at artursepp.
The views and analysis presented in this article are those of the author alone and do not represent any of the views of his employer. This article does not constitute an investment advice.
Compartilhar isso:
Why the volatility is log-normal and how to apply the log-normal stochastic volatility model in practice.
Posted at 3:23 pm by artursepp , on August 27, 2017.
Empirical studies have established that the log-normal stochastic volatility (SV) model is superior to its alternatives. Importantly, Christoffersen-Jacobs-Mimouni (2010) examine the empirical performance of Heston, log-normal and 3/2 stochastic volatility models using three sources of market data: the VIX index, the implied volatility for options on the S&P500 index, and the realized volatility of returns on the S&P500 index. They found that, for all three sources, the log-normal SV model outperforms its alternatives. Keep on Reading!
Compartilhar isso:
Volatility Modeling and Trading: Q&A with Euan Sinclair.
Posted at 4:18 pm by artursepp , on July 1, 2017.
Q: What is your educational background?
A: My educational background is a bit unusual. I have a PhD in Probability and Statistics which I obtained after obtaining a bachelor in mathematical economics and three master degrees in statistics, industrial engineering and mathematical finance. Keep on Reading!
Compartilhar isso:
Quantitative Approaches to Wealth Management: An Interview.
Posted at 3:51 pm by artursepp , on June 1, 2017.
How do we manage our retirement savings? When could we expect to retire with a sufficient income from our savings? How do we formulate our investment objectives and design our investment portfolio accordingly? Keep on Reading!
Compartilhar isso:
How to optimize volatility trading and delta-hedging strategies under the discrete hedging with transaction costs.
Posted at 3:37 pm by artursepp , on May 1, 2017.
O que é negociação de volatilidade?
In this post I would like to discuss a practical approach to implement the delta-hedging for volatility trading strategies. Keep on Reading!

Gerenciamento de propaganda.
Finanças Quantitativas | Gestão de portfólio | Negociação sistemática.
Postagens recentes.
Comentários recentes.
Categorias.
Beat the Market with Meucci and Markowitz.
Introdução.
I am very excited to finally share some of my research exploring Meucci’s ( Meucci (2005) ) portfolio optimization methods, and how the resulting portfolios compare to the use of historical data. For those unfamiliar with Attilio Meucci, he runs an annual Advanced Risk and Portfolio Management Bootcamp in New York City every summer. The bootcamp attracts academics and professionals within the industry, and over 6 intense days, topics and techniques in Risk Management and Portfolio Management are discussed in depth. I was fortunate to attend the bootcamp during the summer of 2014. In this post, I will be exploring portfolio optimization of the 9 Sector SPDR ETFs, using Meucci’s methods, specifically his framework outlined in “The Checklist” ( Meucci (2011) ), and I will be verifying if Meucci’s methods add value over the use of historical data. Lastly, I will be using Markowitz’s ( Markowitz (1952) ) quadratic utility framework for portfolio optimization, and will be comparing results using Minimum Variance and Mean Variance optimizations.
Fundo.
Meucci’s core methods differ from the standard practice insofar as he prefers the use of Profit-and-Loss [P&L] over returns, and he prefers Monte Carlo Simulation over the direct use of historical data. Details of his framework can be found in “The Checklist” ( Meucci (2011) ), however I will provide a brief summary here:
For each instrument, one needs to identify the “invariants”, or the drivers of the changes in price that are “Identically and Independently Distributed” [IID]. For equities, this is usually log-returns. Once the invariants are identified (e. g. log-returns for equities), this yields a matrix of invariants. To reduce estimation error, dimension reduction is performed by computing the eigenvalues and eigenvectors. Then, a subset of eigenvalues/eigenvectors are identified as the “signal”, whereas the remaining ones are classified as “noise”. For the “signal” eigenvalues and eigenvectors, these are converted to their Principal Components [PCs] (i. e. the product of the invariants with the signal-eigenvectors). The distribution for each of the PCs is estimated, as well as the dependence between them (the copula). For the noise components, these are assumed to be distributed with mean 0, and standard deviation equal to the corresponding noise-eigenvalue, and are assumed to be independent/uncorrelated with each other. Next, the Monte Carlo Simulation is conducted by drawing N trials, for P periods, from the meta-distribution estimated in the previous step. The idea is that the optimization should occur at some future investment horizon, and thus prices should be projected to where they likely will be . Finally, these returns need to be converted to P&Ls, thus the distribution of N invariants at the investment horizon is multiplied by the latest security prices to obtain a distribution of P&Ls. Lastly, the portfolio optimization is conducted on the P&Ls, instead of percent returns. Thus, the solution yields holdings (i. e. number of shares for each security) instead of the traditional asset weights.
In order to simplify this process, a number of assumptions were made for this study.
Premissas.
Only equities are considered, whereas Meucci’s framework includes Fixed Income and Derivatives All signal-PCs are assumed to have a skew-student-t distribution All noise-PCs are assumed to either be normally distributed, or have student-t distribution, and are selected based on the Anderson-Darling goodness of fit test Given that there are 9 sector spdr ETFs, it is assumed that there are always 3 signal PCs, and 6 noise PCs The dependence between the 3 signal PCs is assumed to have a Vine Copula ( Kramer and Schepsmeier (2011) ) structure The dependence between the 6 noise PCs is assumed to be uncorrelated within the 6 PCs, as well as uncorrelated with the 3 signal PCs Transaction costs are ignored for rebalancing The optimization is long-only, fully-invested with a max-weight constraint on the 2 highest volatility ETFs For each period, the historical volatility is computed, and for the 2 highest volatility ETFs, their weights are constrained by the inverse-volatility weight calculated for that period All other “non-high-volatility” ETFs can be fully-invested (100% of wealth) For the Auto-Regressive Moving-Average [ARMA] trials, the ARMA model is fit if the Ljung-Box test indicates autocorrelation with 2.5% statistical significance I am aware of criticisms of the Ljung-Box test for autocorrelation Weekly data is used to calculate the invariants, eigenvalues/eigenvector and to ultimately solve for holdings The rationale is that this eliminates some of the noise from the daily prices, yet provides enough data to draw conclusions Performance is evaluated using daily data Covariance matrices are estimated using “robust” methodologies robust::covRob() was used to estimate covariance matrices 3 Windows are selected to evaluate historical horizons 18 months is assumed to be a short-horizon window 36 months is assumed to be a medium-horizon window 60 months is assumed to be a long-horizon window Portfolios are rebalanced monthly, thus the Meucci investment horizon is 4-weeks ahead The invariants are projected 4 periods ahead, and then re-priced and optimized at this 4-period-ahead horizon.
It should also be noted that, I have made many assumptions above. If anyone happened to read my first post on the Low-Volatilty Trading Strategy, then they may wonder why I did not take the hypothesis-driven approach outlined by Peterson (2014) . Work on this post started in Q1 2015, months after I had attended Meucci’s bootcamp. Much of the work, assumptions, and results were obtained throughout 2015. I had taken Brian Peterson’s CFRM561 course in the spring/summer of 2016, after much of the work was completed. Due to the number of assumptions, all of which can arguably be converted to testable hypotheses, this would significantly delay the release of this information. I believe I have some valuable conclusions to share based on the work that has already been completed, and thus decided to write this post. Ideally though, all assumptions I have made above would be tested using the methods outlined in Peterson (2014) , to ensure that the distributional and dependence assumptions are sound, and to reduce the risk of overfitting.
Result Replication.
To replicate the results, two of my packages, titled propfolio and tsconv need to be installed. The following lines of code will install the packages, provided that the devtools library is already installed. Warning: propfolio has a lot of dependencies, so installing it will install many additional packages. Please review the description of the package prior to installing. Code to replicate the results can be found in the appendix.
ARMA Approach.
Throughout 2015, at times during the analysis, I noticed that some of the sectors exhibited autocorrelation (e. g. XLU at times appears to have significant autocorrelation). During the “quest for invariance” step ( Meucci (2011) ), the result should yield no autocorrelation once the invariant has been identified. Given that I observed autocorrelation, this implied that there was information in the return series that was not being captured. In an effort to obtain uncorrelated residuals (invariants), I decided to verify if there is statistically significant autocorrelation using the Ljung-Box test at 2.5% significance. If the null hypothesis was rejected, then I used forecast::auto. arima() to fit an ARMA model. The only time this additional step is conducted is for the 18 month window. It is an extension of the Monte Carlo approach, and technically more accurate as it ensures that the invariants are IID. I did not do this for the 36 month and 60 month windows, since I did test this previously in 2015, and found that using forecast::auto. arima() did not make performance improvements; if anything it negatively impacted performance.
Optimization Criteria, Objectives and Choice of Benchmark.
Objective Function Criteria.
The objective in this study is to maximize risk-adjusted returns, or put anther way, obtain the highest level of returns for the lowest amount of risk. Thus, the Sharpe Ratio will predominantly be used to assess strategy performance, however this will be evaluated in the context of the annualized return and annualized volatility. E. g., if the Sharpe Ratio of strategy 1 is 2.0, yet the annualized return is 3%, and if the Sharpe Ratio of strategy 2 is 1.5, yet the annualized return is 9%, then strategy 2 may be preferred over strategy 1.
The objective can be illustrated with the chart below. Once the portfolio or strategy performance is obtained, and the annualized risk and return is calculated, it can be plotted on a risk-return scatter plot to visually compare strategies. The goal is to select the strategy that is the highest to the top-left; this is the lowest risk and highest return strategy. In practice, there are typically no points in this space, and all points usually tend towards the right (i. e. higher risk). If two points are on the same horizontal line (same return), the strategy on left is the best (the “Good” arrow), since it has the same return but lower risk. If two points are on the same vertical line, the strategy on top (the “Better” arrow) is the best, since it has more return for the same level of risk. Any strategy to the top-left of another point is better (the “Great” arrow) since it has higher return and lower risk. Any strategies that fall on some positive-slope line in relation to one another will need to be evaluated on a case-by-case basis, since if they have the same Sharpe Ratio, then they are roughly “equivalent”, however, if the point is significantly higher, and only slightly to the right, then it is equivalent to the effect in the “Better” line, where a significant amount of return is gained for a small increase in risk.
Visualization of Objectives: Maximizing the Sharpe Ratio.
Choice of Benchmark.
The benchmark for this study will be the equal-weight portfolio of all 9 sector spdrs, rebalanced monthly. It is tempting to select the S&P500 as the benchmark, as it is easier to outperform, however with an equal weight benchmark, not only does it outperform the cap-weighted S&P500 index, it makes no model assumptions and thus is a fair benchmark to be evaluated against.
This outperformance of the equal-weight portfolio over cap-weighted portfolio is clear in the charts and table below, where the equal-weight benchmark exhibits higher annualized returns, lower annualized risk, and better tail characteristics (lower VaR and ETL). The optimizations in this study may outperform the cap-weighted index, however, if they cannot outperform the equal-weight portfolio, then they are not useful, further justifying the use of the equal-weight portfolio as the benchmark.
Cumulative Returns of the S&P 500 (Cap-Weighted) Index vs. Equal-Weighted Sector Portfolio.
Risk-Return Scatter of the S&P 500 (Cap-Weighted) Index vs. Equal-Weighted Sector Portfolio.
Performance Statistics of the S&P 500 (Cap-Weighted) Index vs. Equal-Weighted Sector Portfolio.
(June 2000 – December 2016)
Overall Structure and Process.
First, the Minimum Variance Optimization will be evaluated for each time window, where Meucci’s Monte Carlo approach will be compared to the historical method. The stronger strategy, i. e. Historical vs. Monte Carlo, will be identified for each window length.
Next, the same comparison (Historical vs. Monte Carlo) will be evaluated for the Optimal Sharpe criterion, within each window length.
Lastly, a summary of outperforming strategies relative to the benchmark will be identified, and then it can be assessed whether or not the Monte Carlo [MC] approach adds value over the benchmark and the historical method.
Historical vs. Monte Carlo Performance for Minimum Variance Optimization.
Performance Comparison.
60 Month Window.
In this case, performance of the MC approach vs. the historical approach are virtually indistinguishable from one another. Both strategies exhibit comparable risk and return characteristics. Drawdowns are lower for both MC and historical approaches vs. the benchmark. On the risk-return scatter, we can see that both strategies are in the “Good” scenario, where they appear to exhibit lower risk vs. the benchmark. This is confirmed in the t-test and F-tests below, where the MC and historical methods are statistically indistinguishable, whereas the historical method has statistically significantly lower risk vs. the benchmark.
I do not interpret this to conclude that the MC approach adds no value here. One possible interpretation is that the MC approach confirms that a “global minimum variance” portfolio has been identified, insofar as both strategies select the same sector ETFs with comparable weights across time. However, there is not enough information here to conclude whether or not this is true, or if the MC approach adds no value over the historical method.
Given the choice between the two methods, since the historical approach is more simple, I would likely use this approach, given that it is indistinguishable from the MC approach.
Historical vs. Monte Carlo Cumulative Returns.
Historical vs. Monte Carlo Drawdown.
Historical vs. Monte Carlo Risk-Return Scatter.
Performance Statistics of Historical vs. Monte Carlo Approaches.
(60 Month Window)
(December 2003 – December 2016)
36 Month Window.
Here, we have a very similar result to the 60 month window, except it appears as though the mean return is worse than the benchmark, especially when we look at the risk-return scatter plot below. However, given that the Sharpe Ratio for both the MC and historical approach are comparable to the Sharpe Ratio of the benchmark, and, given that the risk for both strategies is statistically significantly lower (confirmed in the F-test below), if the strategies were to be levered up to the volatility of the benchmark, then comparable returns would be generated. Furthermore, the mean difference for the return distributions of the strategies is not statistically significantly different from that of the benchmark (confirmed with the t-test below), therefore, my interpretation is that this is a similar case to the 60 month window, where the performance of MC and historical vs. the benchmark are comparable, and a statistically significant reduction of risk in the portfolios is obtained.
Again, given the simplicity of the historical approach, I would select the historical method over the MC approach.
Historical vs. Monte Carlo Cumulative Returns.
Historical vs. Monte Carlo Drawdown.
Historical vs. Monte Carlo Risk-Return Scatter.
Performance Statistics of Historical vs. Monte Carlo Approaches.
(36 Month Window)
(December 2001 – December 2016)
18 Month Window.
In this instance, it appears as though the results are indistinguishable from the benchmark, both for the historical and MC approaches. However, upon further inspection of the risk characteristics, what we have is the same return for both the historical and MC approaches for statistically significantly less risk vs. the benchmark (confirmed in the F-test below). Upon inspection of the risk-return scatter plot, the “Good” scenario can be observed, where all 3 strategies (historical, MC and ARMA) exhibit statistically significantly lower risk vs. the benchmark.
Again, since the historical approach is comparable to both the MC and ARMA approaches, given a choice I would select the historical approach due to its simplicity.
Historical vs. Monte Carlo Cumulative Returns.
Historical vs. Monte Carlo Drawdown.
Historical vs. Monte Carlo Risk-Return Scatter.
Performance Statistics of Historical vs. Monte Carlo Approaches.
(18 Month Window)
(June 2000 – December 2016)
Section Results.
In all the window lengths, both the historical method and MC approach exhibited statistically significantly lower risk vs. the benchmark, however between the two strategies, they were virtually indistinguishable.
My interpretation is that, since minimum variance optimization effectively ignores any return inputs, either the MC (and ARMA) approaches are confirming that the historical method is finding the global minimum variance portfolio, or it adds no value. What is needed is return information to verify if adding return information as an input into the optimization enables a distinction in the performance between MC and historical approaches. This will be investigated in the subsequent section.
Historical vs. Monte Carlo Performance for Optimal Sharpe Ratio Optimization.
Performance Comparison.
60 Month Window.
In this particular case, the MC approach is a poor performing strategy, when compared to both the benchmark and the historical method. The historical method manages to maintain the same level of return, with a statistically significantly lower risk, however the MC approach performs very poorly, especially since the t-test comparing the return distribution between both approaches is fairly low at 0.13, indicating that there is a chance that the returns are statistically significantly different.
It appears as though the MC approach at this window length is unable to capture the correct return characteristics, which yields the extremely poor performance vs. both the benchmark and historical method.
Thus, the historical approach is still preferred at the 60 month window length.
Historical vs. Monte Carlo Cumulative Returns.
Historical vs. Monte Carlo Drawdown.
Historical vs. Monte Carlo Risk-Return Scatter.
Performance Statistics of Historical vs. Monte Carlo Approaches.
(60 Month Window)
(December 2003 – December 2016)
36 Month Window.
In this scenario, it almost appears as though similar results are obtained as the minimum variance optimization case, insofar as the returns are lower (yet not statistically significantly different), and the risk is statistically significantly lower, both for the MC and historical approaches vs. the benchmark. However, in the minimum variance case, the Sharpe Ratio for both strategies was comparable to the Sharpe Ratio of the benchmark, yet in this case, it is much lower (0.45 vs. 0.38 and 0.37, benchmark vs. historical and MC, respectively). Thus, theoretically levering the strategies to the volatility of the benchmark would yield portfolios that exhibit comparable returns with higher risk.
Thus, both the MC and historical approaches are poor performers vs. the benchmark in this scenario, and the benchmark should be used over any approach.
What is interesting in this case, is that the MC approach exhibits statistically significantly lower risk vs. the historical approach. This implies that the MC approach is capturing the risk and return characteristics better than the historical approach at this window length, which is a positive characteristic of the MC approach, and can be used in future studies to potentially improve the performance over the benchmark.
Historical vs. Monte Carlo Cumulative Returns.
Historical vs. Monte Carlo Drawdown.
Historical vs. Monte Carlo Risk-Return Scatter.
Performance Statistics of Historical vs. Monte Carlo Approaches.
(36 Month Window)
(December 2001 – December 2016)
18 Month Window.
Here, the MC approach begins to exhibit strong performance over the historical approach, especially when the ARMA method is used. This is clear from the cumulative return chart, where ARMA and MC are the long-run strong performers, as well as the drawdown chart, where the benchmark appears to have the worst drawdowns, and the historical approach appears to have a sluggish post-financial-crisis recovery vs. the MC and ARMA strategies. Upon examining the risk-return scatter, the “Great” scenario can be observed, where the ARMA strategy is to the top-left of the benchmark.
Here, the historical, MC and ARMA approaches all have statistically significantly lower risk vs. the benchmark, however, all of the return distributions are statistically indistinguishable. What is interesting about the ARMA strategy, is that the average drawdown-recovery is lower than that of the historical approach. Lastly, both VaR 100 (i. e. worst loss) are lowest for the MC and ARMA approaches.
My own concern with the ARMA approach, is that I did not test the quality of the signal process, nor did I conduct any tests for overfitting, thus I am cautious with these results. However, it is the more correct approach for Meucci’s methods insofar as it ensures that the invariants are IID.
Therefore, it appears that at lower window lengths, the power of Meucci’s MC approach is quantifiable, even if only the MC approach is used (i. e. not the ARMA approach), insofar as it yields lower risk with a higher Sharpe Ratio vs. both the benchmark and historical method. This is supported when evaluating the 36 month window, where the MC approach exhibited better risk characteristics vs. the historical approach.
Historical vs. Monte Carlo Cumulative Returns.
Historical vs. Monte Carlo Drawdown.
Historical vs. Monte Carlo Risk-Return Scatter.
Performance Statistics of Historical vs. Monte Carlo Approaches.
(18 Month Window)
(June 2000 – December 2016)
Section Results.
It appears as though, at shorter window lengths, the power of the MC approach begins to surface insofar as the the risk of the strategies is statistically significantly lower. In order to assess if the MC approach is truly optimal, a comparison of the strongest strategies across window periods and optimization methods is required to assess if it is truly a superior strategy. This will be the goal in the next section.
Overall Comparison and Identifying the Optimal Strategy.
Upon comparing the results above, the clear performers are:
Historical Minimum Variance (60 Months) Monte Carlo Optimal Sharpe (18 Months) ARMA Optimal Sharpe (18 Months)
Which is summarized in the table below.
The 36 month window is excluded since it could not outperform the benchmark in all tests.
18 Month vs. 60 Month Windows.
In order to identify the true top performer, the results for 18 month window are re-run with the same window length as the 60 month window. Upon inspecting the cumulative returns, it is clear that both the 18 month MC and ARMA approaches exhibit strong returns. The t-test below confirms that the 18 month ARMA Optimal Sharpe has relatively statistically significantly different returns vs. the 60 month Historical Minimum Variance strategy. Both 18 month strategies (ARMA and MC) exhibit statistically significantly lower risk vs. the 60 month Minimum Variance strategy. Thus, based on these results, and the constraints within this study, Meucci’s methods appear to add significant value over historical data, if they are used with relatively shorter time windows (i. e. < 60 months).
Top Performing Strategy Cumulative Returns.
Top Performing Strategy Drawdown.
Top Performing Strategy Risk-Return Scatter.
Performance Statistics of Top Performing Strategies.
(18 Month vs. 60 Month Windows)
(December 2003 – December 2016)
Final Thoughts and Overall Conclusion.
There is one additional consideration that needs attention. I assumed no transaction costs, and given the shorter time horizon of the 18 month strategies, as well as the optimization method (Optimal Sharpe vs. Minimum Variance), when the weights are plotted for each of the strategies, it is clear that the 18 month ARMA and MC strategies are not really portfolio management strategies; they exhibit characteristics of tactical trading strategies due to the aggressively changing portfolio weights.
Thus, if the objective is for stable portfolio weights, then a long horizon window and minimum variance optimization appears to be a better choice under this particular study, due to the relatively stable weights. However, if there is appetite for complexity, and individual transaction costs are low, then there is potential to add more value using Attilio Meucci’s methods.
It may be possible to stabilize the weights under the 18 month scenarios, however it is out of scope for this study, and may be something valuable to investigate at a later date.
Rolling Weights for Minimum Variance Optimal Strategy.
Rolling Weights for Optimal Sharpe Optimal Strategy.
Rolling Weights for Optimal Sharpe Optimal Strategy.
Opportunities for Future Research.
Based on the work in this study, I think there is a lot of opportunity to explore the power of Meucci’s methods. I do think there is a lot of potential for horizons.
Start hypothesis testing from first-principles to reduce the number of assumptions (e. g. signal-PC distribution) Add additional well-thought-out bias to assist with out-of-sample performance Use Cross Validation to evaluate distribution and copula fitting Verify predictive ability of the ARMA process Add concentration constraints to Optimal Sharpe optimization to stabilize asset weights, especially in the 18-month window Identify different regimes (e. g. High vs. Low volatility) and apply different models/hypotheses/assumptions to each regime.
Please contact me if you have any questions/comments/feedback or you have any ideas. I hope you found this interesting and useful.
© 2016 Erol Biceroglu.
Appendix: Code to Replicate Results.
Historical strategy code:
Monte Carlo Simulation strategy code.
Monte Carlo with ARMA strategy code:
Calculating results after running one of 3 scenarios above.
Referências.
Kramer, Nicole, and Ulf Schepsmeier. 2011. “Introduction to Vine Copulas.” Technische Universitat Munchen. statistics. ma. tum. de/fileadmin/w00bdb/www/veranstaltungen/Vines. pdf.
Markowitz, Harry. 1952. “Portfolio Selection.” Journal of Finance 7 (1). Wiley for the American Finance Association: 77–91. jstor/stable/2975974.
Meucci, Attilio. 2005. “Risk and Asset Allocation.” Springer Finance Textbooks. arpm. co/book/.
Replicating CRSP Volatility Decile Portfolios in R.
Introdução.
In this post, I provide R code that enables the replication of the Center for Research in Security Prices (CRSP) Volatiliy Deciles using Yahoo! Finance data. This post is related to my last blog post in that it will generate the CRSP low volatility decile portfolio, thereby facilitating the replication of the associated EMA trading strategy.
There are a few caveats to this replication:
There will be survivorship bias since Yahoo! Finance does not contain de-listed stocks This code takes a long time to run (+2 hrs on my machine, excluding downloading the symbols), and so it should not all be executed at once The parallel processing libraries in this code run in linux For Windows, “library(snow)”” should be used instead of “library(parallel)” and “library(doSNOW)” should be used instead of “library(doParallel)” A SOCK cluster will likely need to be used instead of a FORK cluster Consequently, objects, functions and libraries will have to explicitly be exported to the cores, thereby consuming more RAM There are +5,000 securities to download from Yahoo! Finance, and any one of them can fail randomly, thereby yielding different results each time the code is executed It is up to the individual user to decide if they want to download the failed symbols The quality control [QC] for this code is not exhaustive , i. e. my goal was to quickly get data for a time-sensitive paper-replication project, thus there is potential for more QC, which I will indicate in the post.
This code is related to a paper replication project for a course I took over the summer of 2016 (Advanced Trading System Design). I will be sharing the project in a subsequent post.
To run the following script, one of my packages, titled tsconv (which stands for “Time Series Convenience”) needs to be installed. The following line of code will install the package, provided that the devtools library is already installed.
Download Security Tickers.
In order to determine the universe of stocks to include, a list of security tickers that trade on the NYSE and NASDAQ is required. This was located by reading the relevant post by Louis Marascio, and as per the discussion, the list of stock tickers that trade on the NYSE and AMEX was then obtained from nasdaqtrader/trader. aspx? id=symboldirdefs on July 8th, 2016.
The file format is a pipe-delimited text file. It contains preferred shares and ETFs, which should be excluded from the replication. Therefore, the file was imported into Microsoft Excel, and then filtered for tickers that were not ETFs, and where the “ACT Symbol” excluded the “$” character, as these were predominantly preferred shares. Lastly, the exchange needed to be part of the NYSE, or NASDAQ, and the only exchange code listed on NASDAQ which is not a part of these exchanges is “Z”, which is the label for BATS Global Markets ; therefore any stock with an exchange code “Z” was excluded. After these exclusions, 6,157 ticker symbols remained in the file. The symbols from this cleaned list were exported to a Comma-Separated-Value [CSV] file.
Load the Tickers and Download the Data.
Next, the tickers are loaded into the global environment, and then downloaded one by one from Yahoo! Finance to avoid getting blocked by the website. It may be possible to download more symbols at a time, thereby speeding up the process, however I did not test that to ensure I was not cut off. These are stored in a separate environment titled “stockPriceEnv”. I have added code to save and load the downloaded tickers, since it is time-consuming, taking almost 2 hrs on my machine.
The following symbols failed during the download. This is important, since the failed symbols appear to change each time this code is run, which ultimately yields slightly different volatility decile performance. This means that to replicate the numbers in this post, the exact same symbols will need to fail/be present.
Failed Download Symbols.
Controle de qualidade.
Here, there are 2 known issues I have come across while working on this code. One, is that there’s a symbol with the name “TRUE”, which not surprisingly, causes issues. The fix is to rename it to “TRUE.”.
The second issue is that the ticker OHGI appears to have “garbage” data, thus it is excluded completely from the replication.
OHGI Adjusted Closing Prices.
It is possible that there are more anomalies within the data, however, from my perspective, there was a time-sensitive deliverable, and thus given that the numbers were sensible, insofar as they were comparable to results generated by the actual CRSP volatility decile indices, they were used for the replication project. Any additional investigations and QC should be performed at this stage.
This next block of code uses roughly 17 GB of RAM on my machine using a fork cluster with 8 cores, therefore, please ensure that there is adequate memory to run the code. The code checks that each stock has at least 80% of trading days populated within a year (as per CRSP’s requirements), and then calculates the annualized volatility for that stock for each year. Fortunately, the code only takes 1.5 minutes to run using parallel processing.
Volatiliy Decile Replication.
Next, the data is checked for continuity, i. e. that there are no missing years.
The plot below indicates a break before 1973, indicating that there are gaps in the data prior to that year.
Thus, the data is filtered to ensure that the time series begins in 1973.
Next, stocks are assigned to deciles. In order to accomplish this, the code below extracts all volatilities for the stocks for each year…
By summarizing the results, outliers can clearly be observed in the more recent years. This indicates that the high volatility stocks can very likely also benefit from additional QC, however to keep this post brief, no additional QC will be conducted.
Volatility Decile by Year (1995 and onward)
Now that volatility has been assigned to deciles for each year, stocks can be assigned deciles based on their volatilities for each year. This takes roughly 37 minutes on my machine using all 8 cores.
So far, we have lost 212 stocks from a failure to download, and after running the code block above, we have also lost an additional 392 symbols due to NA or NULL values, which ultimately results in a loss of 9.81% of symbols.
Based on the results in the previous block of code, decile portfolios can be constructed for each year. The following code takes roughly 24 minutes to run on my machine (using 8 cores).
The code above generates a matrix of 1/0 flags, where the rows are the years, and the columns are the stocks. Two things now need to happen to proceed. First, the date needs to be converted to an end-of-year date, since CRSP assigns the portfolio weights in the subsequent year (later, PerformanceAnalytics::Return. portfolio() will then assign the weights to the subsequent year). Second, the 1/0 flags need to be converted to weights, so that they sum to 1 for each year (each row).
Some checks are performed to ensure that the weights sum to 1 across all years.
Verification of Weight-Sums Across Deciles and Years.
Here is another check, where the number of stocks for each decile by year is computed. What we should observe, and do ultimately see, is an approximately equal distribution of stocks across all deciles within a year. Or in other words, the number of stocks across each row (year) should nearly all be equal.
Count of Stocks Across Deciles and Years.
We are almost ready to compute the volatility decile portfolios. The column names across all volatility deciles are verified to ensure that they are equal across all years. This will be used to match weights to the stock returns when computing a portfolio.
It returns an empty result, indicating that any one of the list item’s names can be used as a reference.
Next, the “stockNames” variable contents are matched to the stock price names so that matrix multiplication can be performed later (i. e. the order of the weights match the order of the stock returns).
Now, a very large matrix of prices, in the same order as the stock weights, will be created. Ideally, the xts::merge() function would be used. However, since there is a large volume of data, my machine cannot handle it. The way around it, is to loop through all the stocks and join them together, very slowly. The code below runs in sequence (one core) and takes just over 30 minutes on my machine.
So we have a matrix of prices, in the same order as the weights that were calculated. The code below verifies that the order is the same across all decile portfolios.
Returns then need to be calculated from the matrix of prices.
Finally, the decile portfolio returns can be calculated, using the stock returns and weights that were calculated previously.
Below, the cumulative returns are plotted on a log-scale, which facilitates a visual comparison of the decile performance. We can see that the higher volatility deciles exhibit higher cumulative returns, which is what is expected as the volatility increases.
Cumulative Returns of Volatility Decile Portfolios (Log Scale)
Numeric results can be generated using the following line of code.
The Sharpe Ratio declines as the volatility increases, which is consistent with the low-volatility anomaly. However, the peculiar result is that the Sharpe ratio then increases at the high volatility portfolios. One reason for this could be the embedded survivorship bias, since riskier stocks in the high volatility portfolios would be excluded, thereby increasing risk-adjusted returns. However, if we compare the Sharpe-Ratio-trend against actual CRSP data results, seen in the table below, they exhibit the initial decline in Sharpe Ratio, and subsequent rise in Sharpe Ratio for the higher volatility deciles, which conflicts with the low-volatility anomaly results. Overall, replicated volatility decile returns, risk, and tail risk increase as the volatility increases, which is consistent with expectations, and which is observed in the actual CRSP volatility decile performance.
Replicated Volatility Decile Results.
Actual Volatility Decile Results.
Table extracted from:
Han, Yufeng, Ke Yang, and Guofu Zhou. 2013. “A New Anomaly: The Cross-Sectional Profitability of Technical Analysis.” Journal of Financial and Quantitative Analysis 48 (5). Cambridge University Press: 1433–61. dx. doi/10.1017/S0022109013000586.
Conclusão.
This post presents R code which uses free Yahoo! Finance data to replicate the performance of CRSP volatility deciles. Though the replicated portfolios contain survivorship bias, the overall risk and return characteristics match those exhibited by actual CRSP volatility decile portfolios.
© 2016 Erol Biceroglu.
Uma estratégia de negociação EMA para uma carteira de baixa volatilidade.
Introdução.
O processo que vou seguir é baseado no conteúdo do curso CFRM561 da Universidade de Washington Advanced Trading System Design. O "desenvolvimento impulsionado pela hipótese" é o princípio central deste curso, em que cada etapa do processo de desenvolvimento envolve a hipótese de idéias testáveis ​​e a verificação dessas idéias antes de avançar para a próxima etapa. Os estágios envolvem a identificação de um ou mais indicadores de mercado, testando que os indicadores estão realmente medindo os fenômenos de mercado pretendidos, hipótese de sinais de entrada e saída com base no (s) indicador (es) do mercado, confirmando se os sinais têm poder preditivo e depois configuração de entrada e saída regras baseadas nos sinais.
Sou pessoalmente um adepto do investimento de baixa volatilidade, na medida em que proporciona rendimentos ajustados ao risco melhorados em comparação com os índices de mercado tradicionais ponderados. Assim, eu reconstruí o portfólio de deciles de volatilidade mais baixa do CRSP usando dados de Yahoo! Finanças, e usará este índice como a linha de base para avaliar a estratégia de negociação. O objetivo aqui é verificar se uma estratégia de negociação de média móvel [EMA] ponderada exponencialmente pode aprimorar os retornos ajustados pelo risco aumentando os retornos sem aumentar o risco, diminuindo o risco sem afetar os retornos ou ambos.
Esta publicação é uma versão significativamente condensada do relatório completo. O relatório da versão completa, que é a tarefa real que enviei, pode ser encontrado aqui. Ele contém todos os detalhes para cada etapa, os resultados dos testes de hipóteses, incluindo a força do sinal, bem como as etapas de otimização de parâmetros interinos.
A primeira questão relacionada ao indicador que precisamos nos perguntar é: "o que achamos que estamos medindo?"
Pode-se argumentar que o EMA está medindo o "verdadeiro nível de preço desativado", onde o pensamento é que a média móvel "projeta" o ruído, revelando o verdadeiro nível.
Também se pode argumentar que, assumindo que a EMA está medindo o nível "verdadeiro", também está medindo a tendência de preços. O raciocínio aqui é que, se houver um verdadeiro nível revelado, a tendência pode ser deduzida da série temporal de "níveis verdadeiros".
Para testar que EMA está medindo o nível verdadeiro, a correlação entre o nível de índice de baixa vol e o indicador EMA é testada quanto à força e significância estatística. Para testar a tendência, ela é comparada com uma medida de inclinação "verdadeira" testando para uma correlação e cointegração altas e estatisticamente significativas.
Antes de definir qualquer sinal, a principal previsão que pode ser possível com um EMA é determinar se o nível de índice futuro será maior ou menor do que o nível de índice atual, em vez de gerar uma previsão de pontos. Para esta ferramenta, as matrizes de confusão são usadas para medir se as previsões do nível do índice futuro são corretamente classificadas como maiores ou menores que os níveis atuais do índice. O significado estatístico das matrizes de confusão também é verificado para garantir que haja algum conteúdo de informação.
Em termos do sinal real, o pensamento por trás disso é que, se o nível de índice atual exceder o nível EMA, isso aumentará o valor EMA subsequente (que foi verificado como uma medida do nível de preço "verdadeiro"), o que aumentará a Tendência EMA. Isso seria então interpretado como um sinal potencial de que o nível do índice aumentaria.
O raciocínio para o inverso está, na medida em que, se o nível de índice atual for menor que o nível EMA, isso diminuirá o valor EMA subsequente (que é uma medida do nível de preço "verdadeiro"), indicando assim que o nível do índice irá potencialmente diminuir.
As regras são simples: se é provável que o preço aumente com base na relação entre indicador e índice (ou seja, o nível do índice excede o nível EMA), então uma posição longa deve ser iniciada. Por outro lado, se é provável que o preço diminua com base no mesmo relacionamento, qualquer posição (s) longa (s) deve (m) ser fechada (s).
Benchmarks e Objetivos da Estratégia.
Objetivos.
O objetivo principal é verificar se os retornos ajustados pelo risco para o índice de baixa volatilidade podem ser aprimorados. Thus, maximizing a measure of risk-adjusted performance is the objective of this strategy, since leverage can always be applied to increase absolute returns.
Dado que o objetivo é maximizar os retornos ajustados pelo risco, as seguintes estatísticas podem ser usadas para quantificar retornos ajustados pelo risco:
Durante as simulações comerciais, o PMD será usado para avaliar os retornos ajustados ao risco, pois é mais sensível às caudas do que o SR. No entanto, para avaliar a viabilidade da estratégia de negociação, o SR será utilizado.
Pontos de referência.
Os resultados da estratégia de negociação EMA serão comparados com uma versão de 100% do índice de baixa volatilidade. Este portfólio é a versão "buy and hold" [BH] do índice, enquanto que a estratégia de negociação será denominada Portfolio de média móvel [MAPFRELOTE]. O portfólio da BH é o portfólio "sem esforço" com o qual medir se os sinais de negociação estão agregando valor. O sucesso não é definido nos retornos absolutos; pode ser possível observar retornos inferiores absolutos, no entanto exibem retornos mais ajustados ao risco.
Resultados da força do sinal.
O Heidke Skill Score [HSS] é usado para quantificar a força do sinal, pois é mais implacável do que a "Probabilidade de Detecção".
HSS para o sinal ascendente indica que o nível de habilidade é relativamente baixo para os dias de atraso de 15 ou mais. Além disso, o nível de habilidade é mais alto por 1 dia de antecedência com um atraso de 5 dias e cai relativamente rápido por um atraso de 5 dias quando o número de dias de frente excede 3 dias.
The HSSs are much higher for the down signal, and appear to persist for 1 – 5 dias de avanço e dias de atraso até 60 dias, assumindo que menos de 1% de habilidade não é suficiente para fazer previsões úteis. Para esclarecer, a persistência de 60 dias não é visível no gráfico de contorno, no entanto, os AVS são mais persistentes para o sinal descendente versus sinal ascendente. Até agora, isso implica que o sinal descendente contém mais potência preditiva do que o sinal ascendente.
Todas as pontuações de habilidades determinadas para serem "fortes" também são estatisticamente significativas, tanto para sinais altos como para baixo.
Resultados da Estratégia de Negociação.
Depois de testar vários intervalos de atraso exibindo HSSs altos para sinais de cima e para baixo, além de realizar uma otimização de parâmetros, a conclusão detalhada no relatório completo era que é provável que seja mais confiável definir o tempo de atraso baseado apenas na força do HSS em vez disso dos resultados do backtest devido ao desempenho fora da amostra ruim [OOS]. Os resultados da OOS, bem como o código, para os comprimentos de atraso HSS elevados (5 dias para o sinal alto e 5 dias para o sinal descendente) são apresentados abaixo.
Uma das principais observações é que o desempenho durante a crise financeira de 2008 foi relativamente espetacular, com uma redução de apenas aproximadamente 10%, contra 40% para o índice BH. Durante o início do desempenho da OOS, houve algum desempenho inferior, até o ponto-com crash no final de 1999 e no início de 2000, onde as cobranças para o portfólio de MA foram mínimas, permitindo que os retornos sejam mantidos.
Os retornos médios não são estatisticamente significativamente diferentes, no entanto, a variação é estatisticamente significativamente menor, resultando na Ratio Sharpe superior de 2,43, versus 1,14 para o índice BH. Infelizmente, a estratégia de negociação não apresenta inclinação positiva, enquanto, surpreendentemente, o Índice BH exibe uma inclinação positiva. No entanto, o excesso de curtose, embora alto para ambas as carteiras, é significativamente maior para o índice BH. Parece que a estratégia de negociação reduz significativamente o impacto de eventos de mercado negativos, permitindo a preservação dos retornos acumulados, com a desvantagem de potencialmente perdida em qualquer reversão. Dado que o objetivo é aumentar os retornos ajustados pelo risco, a combinação de parâmetros tendenciosos parece atender com êxito esse critério. Um fator adicional são os custos de transação, que não foram considerados neste estudo. Estes deveriam ser tidos em conta nos backtests para verificar se os rendimentos superiores ajustados ao risco são mantidos.

Nicholas R. Kirk.
Quantitative Developer and Data Scientist.
Nick brings an immense expertise in developing systematic trading systems. He has held consultant roles at many investment firms, including Schroders Asset Management, Mitsubishi UFJ Securities and AXA Investment Managers. Early on in his career, he worked on high-performance messaging systems at the IBM Research Center, La Gaude (France). Since 2015, Nick has been trading cryptocurrencies successfully, researching and developing multiple profitable trading strategies. Nick was a guest lecturer at the University of Washington, where he taught systematic cryptocurrency trading in their Masters in Computational Finance program. He also teaches a systematic cryptocurrency trading workshop with Ernest P. Chan.
Nick holds an MS in Applied Mathematics from the University of Washington.
Ernest P. Chan.
Ernie is the Managing Member of QTS Capital Management, LLC. After graduating with a PhD from Cornell University in 1994, Ernie worked as a researcher at IBM T. J. Watson Research Center’s Human Language Technologies group, where he designed statistical pattern recognition algorithms. Ernie then joined the Investment Bank Morgan Stanley, working in their Data Mining group, where he pioneered the application of statistical algorithms to the complex task of extracting customer relationships in the Morgan Stanley customer accounts database.
He was invited to join a proprietary trading group at Credit Suisse in New York in 1998 to develop statistical models for equities and futures trading. He later joined Mapleridge Capital Management Corp. in 2002 as a Senior Quantitative Analyst working on futures trading strategies, and then Maple Financial in 2003 as a senior researcher and trader. He co-founded EXP Capital Management, LLC, a Chicago-based fund management company in 2008 and founded QTS Capital Management, LLC. in 2011.
He is the author of “Quantitative Trading: How to Build Your Own Algorithmic Trading Business”, “Algorithmic Trading: Winning Strategies and Their Rationale“, and “Machine Trading: Deploying Computer Algorithms to Conquer the Markets”, all published by Wiley. He was an Adjunct Associate Professor of Finance at Nanyang Technological University in Singapore (NTU), and an Industry Fellow of the NTU-SGX Centre for Financial Education. Ernie teaches Risk Analytics at Northwestern University’s Master of Science in Predictive Analytics program, and teaches workshops on Statistical Arbitrage, Quantitative Momentum Strategies, and Artificial Intelligence for Traders in London.
Ernie holds an MS and PhD in Theoretical Physics from Cornell University.
Laurent Hoffmann.
Quantitative Researcher and Data Scientist.
After completing his PhD and postdoctoral research, Laurent joined d-fine in Frankfurt as a quantitative risk analyst and consultant. He then moved to Depfa Bank in London where he was a lead desk quantitative analyst and researcher in fixed income and structured credit trading, working on derivatives pricing models, statistical techniques for systematic relative value arbitrage and optimal liquidation of illiquid assets. He has held consulting roles at hedge funds in London researching various systematic trading strategies, including FX and options volatility arbitrage, and the construction of mean reverting portfolios of futures contracts. Laurent is also an entrepreneur and co-founded OpenCapacity, which develops machine learning systems for predictive analytics in the public transport industry.
Laurent holds an MSc in Mathematical Finance from the University of Oxford and an MSc and PhD in Theoretical and Mathematical Physics from the University of Kaiserslautern.
Brian G. Peterson.
Brian Peterson is a Partner and the Head Trader for Automated Trading at DV Trading in Chicago. At DV, Brian runs a quantitative trading team that is a top-25 market maker in multiple Interest Rate and Energy markets, and a registered market maker in many of them. In addition to Interest Rate and Energy products, Brian’s team also trades FX, Agriculture, and other Commodities. Brian’s team regularly participates as a designated market maker in new product launches on several global commodities exchanges.
Brian is a senior lecturer at the University of Washington’s Computational Finance and Risk Management department where he teaches quantitative trading systems development. In computational finance Brian has published multiple papers on portfolio risk and portfolio construction, and is regularly invited to speak at major conferences on topics related to quantitative finance. He has been a keynote speaker on High-performance Computing and Algorithmic Trading at the Trading Show Chicago (2016) and at the International Conference for High Performance Computing (2015).
Brian is also an author or coauthor of more than 10 open source packages for using R in Finance, the organization administrator of R’s participation in Google Summer of Code, and a founding member of the conference committee for the annual R/Finance quantitative finance conference in Chicago. Prior to DV and UW, Brian held similar positions at other major Chicago trading firms, and was an executive at two global management consulting firms, one of which was included in the Fortune 1000 during the 90’s Internet boom.
As a management consultant, Brian has advised 8 of the top 10 global banks and many regional banks, approximately half of the top 25 asset managers, global brokerages, and many other non-financial services clients in industries including health care, pharmaceuticals, manufacturing, services, and technology.
Timothy V. Kirk.
Head of Blockchain Research.
Tim is a talented materials scientist with expertise spanning Physics, Chemistry, and Engineering. After completing his PhD, he was a postdoctoral researcher at the Laboratory for Biochemistry, ESPCI ParisTech (France), where he developed instruments and devices for microfluidic and DNA-sequencing based assays. He also studied Management of Technology at the Haas School of Business while at Berkeley, and in the last two years has circled back to this field. This time his analytical skills are focused on blockchain markets, where he performs detailed sector by sector fundamental research on the underlying technologies and market potential of assets and platforms.
Tim holds an MS in Materials Science from UC Berkeley, and a PhD in Biochemical Engineering from University College London.
Cypher Capital is a quantitative investment firm, specialising in the systematic trading of cryptocurrencies. We trade a diverse set of strategies including market making, providing liquidity to the revolutionary and emerging token economy. As well as engaging in high frequency trading, Cypher Capital invests in blockchain-based assets that have strong fundamentals.
Nicholas R. Kirk.
Quantitative Developer and Data Scientist.
Ernest P. Chan.
Laurent Hoffmann.
Quantitative Researcher and Data Scientist.
Brian G. Peterson.
Timothy V. Kirk.
Head of Blockchain Research.
research articles.
Cryptocurrency Analysis – A Survey of Recent Academic Literature.
This is a survey of recent academic literature discussing portfolio diversification and hedging using cryptocurrencies…
KuCoin’s KCS Token – Bonus Calculation and Price Valuation.
This spreadsheet looks at KuCoin’s KCS token – bonus issued and price – given exchange turnover, expected dividend and quantity of KCS held …
FunFair – Valuation of a Blockchain Gambling Token.
This whitepaper examines the blockchain gambling startup FunFair, and explores potential values of its utility token, FUN…
Press releases and media coverage.
FunFair and the Future of Blockchain Gambling.
Whether you partake in gambling or not, it’s a big industry.
By William Kolb - 01 Nov 2017.
Bitcoin ‘nerds’ give way to Wall Street suits at digital currency conference.
The world of finance is getting so interested in bitcoin that it's no longer just the land of coders.
CNBC - Evelyn Cheng, 25 May 2017.
After bitcoin rebounds to record high, reinvigorated investors bet on even bigger gains.
Analysts also predict bitcoin will rise on increased investor interest as more "crypto-funds" form and bitcoin derivatives launch.
CNBC - Evelyn Cheng, 12 Oct 2017.
Trading Guru Ernie Chan Workshop Uses Bitcoin Exchange Gemini.
Next generation Bitcoin Exchange Gemini will be used as a sandbox for students of renowned Algorithmic Traders Ernest Chan and Nick Kirk.

Quantitative finance & systematic trading


Nossas estratégias são totalmente automatizadas e operam em baixas e altas freqüências, usando algoritmos matemáticos proprietários e modelos econométricos.
A Systematic Strategies possui uma Plataforma de Contas Gerenciadas e uma estrutura de fundos de hedge Master Feeder para investidores.
Nossos clientes incluem pessoas de alto patrimônio líquido, escritórios de família e investidores institucionais.
Além de gerenciar suas próprias estratégias, a empresa se dedica à pesquisa e desenvolvimento em nome de outras empresas comerciais.

Комментариев нет:

Отправить комментарий