К основному контенту

Estratégia de negociação de distorção de tempo dinâmico


Estratégia de negociação de distorção de tempo dinâmico
Por que períodos noturnos são mais arriscados? Por um lado, você não pode usar stops para limitar seu risco. Mas, mais importante, a distribuição dos retornos durante a noite tem retornos negativos muito mais extremos do que os períodos intraday ou close-to-close. Vamos dar uma olhada em algumas estatísticas sobre os retornos close-to-open, open-to-close e close-to-close para o SPY:
Inclinação: inclinação negativa significa caudas mais longas no lado negativo. Curtose: maior curtose significa caudas mais pesadas (a distribuição normal tem uma curtose de 3).
Primeiro de tudo, retornos durante a noite não são tão voláteis. Mas por volatilidade por unidade, eles são muito mais arriscados devido à maior frequência de retornos extremos. Calculei a magnitude dos retornos em termos de desvios-padrão (com base na volatilidade realizada em 10 dias) e os retornos durante a noite têm um movimento de desvio padrão de 5 vezes mais do que o dobro dos retornos aproximados. Você pode esperar um movimento 5SD durante a noite, uma vez por ano.
Aqui está um histograma de retornos próximos e próximos e retornos próximos de abrir. Você pode identificar claramente a assimetria ao redor da área de -6% a -3%. O valor mais à esquerda é de 24 de outubro de 2008. Observe também que só porque a assimetria é negativa, não significa que as posições curtas são seguras: as caudas dos retornos durante a noite também são pesadas no lado direito.
Os retornos close-to-open foram ajustados para ter a mesma volatilidade que os retornos close-to-close para tornar a comparação um pouco mais fácil.
Regimes de Mercado.
Esses riscos são os mesmos nos mercados de alta e baixa. Por outro lado, eles parecem ser menores em ambientes de alta volatilidade (possivelmente um efeito colateral da volatilidade de reversão da média). Quando a volatilidade realizada de 20 dias da SPY está acima de 20%, os riscos de caução dos retornos durante a noite são quase os mesmos dos retornos aproximados. Mas isso não é muito útil, porque afinal em tempos de alta volatilidade, seu tamanho de posição já é limitado.
O fim de semana.
O fim de semana é um caso especial de risco ainda maior; você não pode tratá-lo como outros períodos durante a noite. É mais volátil e apresenta perdas extremas ainda mais frequentes. Na minha própria posição, eu sempre coloco limites adicionais nos negócios no fim de semana.
Pensamentos Finais.
Diferentes instrumentos se comportam de maneiras diferentes, especialmente quando se trata de diferentes classes de ativos. Perigos noturnos tendem a ser relativamente maiores para os estoques em comparação com os índices. Portanto, certifique-se de que seu dimensionamento seja adaptado às características exclusivas dos instrumentos que você está negociando.
Como regra geral, diria que, dada uma exposição igual à volatilidade, os retornos durante a noite o expõem a cerca de.
1,5-2x risco de retornos negativos extremos, enquanto o fim de semana expõe a 2-2,5x risco de retornos negativos extremos. Mas isso significa que você deve reduzir pela metade os negócios noturnos que você entra nas sextas-feiras? Não necessariamente. Não há uma resposta perfeita para esse dilema: diferentes negociadores e diferentes estratégias terão visões diferentes sobre o quanto estão dispostos a negociar retornos para movimentos menos extremos. A parte importante é quantificar o trade-off para que você saiba exatamente quanto você está desistindo e quanto risco você está assumindo.
Problemas na Otimização de Portfólios Swing.
Suponha que você tenha vários sistemas diferentes que negociam ações, ETFs de índices de ações, ETFs de títulos e alguns outros ativos alternativos, por exemplo, ETFs de commodities. Todos os sistemas tomam posições longas e curtas. Quais são as perguntas que sua abordagem de otimização de portfólio deve responder? Este é um post focado em questões conceituais de alto nível, em vez de detalhes de implementação.
Eu quero a exposição dos fatores de mercado?
Por & # 8220; fator de mercado & # 8221; Eu me refiro ao primeiro componente que resulta do PCA de um grupo de ações (que é similar, mas não idêntico ao primeiro fator em todos os diferentes modelos de fatores acadêmicos). Em outras palavras, é o processo subjacente que impulsiona os retornos da equidade global como um todo.
Caso A: o seu sistema diz: "vá longe" SPY & # 8221 ;. Isso é simples: você quer exposição ao fator mercado. Esta é basicamente uma estratégia de cronometragem beta: você está prevendo um retorno positivo sobre o fator de mercado e usando a posição longa do SPY para capturá-lo. O gerenciamento de risco envolve basicamente a redução da exposição ao SPY até que você atinja os níveis de risco desejados.
Caso B: o seu sistema diz "vá muito tempo SPY e curta QQQ & # 8221 ;. De repente, essa não é uma estratégia de cronometragem beta, mas algo muito diferente. Claramente, o que nos interessa nesse cenário é o desempenho relativo dos componentes de retorno exclusivos do SPY e do QQQ. Portanto, podemos pensar nisso como uma espécie de comércio de arbitragem estatística. A abordagem típica aqui é se tornar neutro beta ou neutro em dólar, mas a paridade de risco ingênua também é razoável.
Eu estou indo muito tempo o mundo inteiro e curto NFLX. Isso se parece mais com uma negociação de cronometragem beta (Caso A) em vez de uma negociação no estilo statarb (Caso B), porque o número e a amplitude dos negócios concentrados no lado longo indicam um retorno positivo do fator mercado. Eu provavelmente não quero ser beta neutro neste caso. Nem todos os casos de negociação de ações de curto / longo prazo podem ser resumidos a "ir ao mercado neutro". Então, como podemos determinar se queremos estar expostos ao fator mercado ou não?
Uma solução intrigante seria criar um modelo de previsão em cima das estratégias: seria necessário inserir os sinais (e talvez também outros recursos) e prever o retorno do fator de mercado no próximo período. Se o fator de mercado está previsto para subir ou cair significativamente, então faça um comércio de cronometragem beta. Se não, faça um comércio beta-neutro. Se tal previsão pode agregar valor, a única desvantagem é a complexidade.
O fator mercado é suficiente?
Vamos dizer que você negocia 5 instrumentos: 3 ETFs dos EUA (SPY, QQQ, IWM), um ETF de Hong Kong (EWH) e um ETF da China (FXI). Vamos dar uma olhada em alguns números. Aqui estão as correlações e o enredo MDS para que você possa ter uma idéia de como esses instrumentos se relacionam entre si:
PCAing seus retornos mostra exatamente o que você espera: o primeiro componente é o que você chama de fator de mercado e todos os ETFs têm um carregamento positivo similar. O segundo componente é um fator específico da China.
PCA & # 8211; Carregamentos de Fator.
E aqui está o biplot:
Nessa situação, não há maneira prática de ser neutro tanto no fator do mercado global quanto no fator específico da China. Para ilustrar rapidamente o motivo, considere estes dois cenários de pesos e as cargas fatoriais resultantes:
Devemos tentar minimizar os dois? Devemos tratar o EWH / FXI como um comércio independente de statarb e neutralizar o fator China, e então usar nossa posição SPY para fazer o beta do timing no mercado global? Como sabemos qual opção escolher? Como automatizamos essa decisão?
Um problema semelhante surge se segmentarmos o mercado por setores. É possível que a sua estratégia tenha um efeito de seleção que o leve a estar acima do peso em determinados setores (estratégias de baixa volatilidade reconhecidamente têm esse problema), caso em que pode ser prudente começar com um orçamento de risco por setor e otimizar sua carteira dentro de cada setor separadamente.
Se você estiver executando um portfólio puro, esta é uma decisão fácil, e dado o grande número de títulos em seu portfólio, existe a possibilidade de minimizar a exposição não apenas ao fator mercado, mas também a muitos outros. Para saber mais sobre como alcançar isso, confira Valle, Meade & amp; Beasely, carteiras neutras de fator.
Desejo exposição a outros fatores não patrimoniais?
Vejamos o que acontece quando adicionamos TLT (tesouros de mais de 20 anos) e GDX (mineradores de ouro) ao nosso universo de ativos. Correlações e MDS:
PCA & # 8211; Carregamentos de Fator.
Algumas coisas a notar: como você espera, precisamos de mais fatores para capturar a maior parte da variação. Além disso, a interpretação do que cada fator significa, & # 8221; é mais difícil: o primeiro fator ainda é o fator de mercado, mas depois disso, meu palpite é que o PC2 está relacionado à taxa de juros, e o PC3 parece específico da China? De qualquer forma, acho que a abordagem correta aqui é sermos agnósticos sobre o que esses fatores significam: "& # 8221; e apenas abordá-lo como um problema puramente estatístico.
Neste ponto, também quero observar que esses fatores e suas respectivas cargas de instrumentos não são estáveis ​​ao longo do tempo. Sua escolha do período de lookback influenciará suas previsões.
Mais uma vez nos deparamos com problemas semelhantes. Se os seus sistemas disserem "GDX & # 8221; Longo", isso parece uma versão beta do PC2 / 3? / 4 ?. Mas digamos que você está executando dois sistemas não relacionados e eles fornecem os seguintes sinais:
Devemos tratá-los como dois comércios independentes, ou devemos tratá-lo como um comércio único estilo statarb? Importa que esses dois instrumentos estejam em classes de ativos completamente diferentes quando suas cargas de PC1 e PC2 são tão semelhantes? É uma negociação de valor relativo, ou estamos fazendo duas negociações de beta-timing separadas (mas na mesma direção) no PC4? Difícil dizer sem um modelo explícito para prever retornos de fatores. Se você não sabe o que está gerando os retornos de seus negócios, não pode otimizar seu portfólio.
Eu trato todos os instrumentos igualmente?
Depende Se você seguir a rota do fator agnóstico e tratar tudo como uma abstração estatística, então talvez seja melhor também ser completamente agnóstico sobre os próprios instrumentos. Por outro lado, vejo alguns bons argumentos para regras adaptadas à mão que se aplicariam a classes de ativos ou subclasses específicas. Certamente, quando se trata de gerenciamento de risco, você não deve tratar estoques individuais da mesma maneira que você trata os índices - talvez isso deva ser estendido à otimização de portfólio.
Também depende de quais outros instrumentos você inclui em seu universo. Se você está negociando apenas um único instrumento em uma classe de ativos, talvez possa tratar cada negociação como uma negociação de tempo beta.
Como faço para equilibrar os lados longo e curto?
Em um cenário simples como o caso B (SPY longo / short QQQ), isso é direto. Você escolhe alguma métrica: beta, $, volatilidade, etc. e apenas equilibra os dois lados.
Mas vamos voltar ao caso mais complexo C. A resposta de como equilibrar os lados longos e curtos depende da nossa resposta anterior: devemos tratar esse cenário como tempo beta ou statarb? O problema com o último é que qualquer abordagem sensata de gerenciamento de risco limitará severamente sua exposição ao NFLX. E uma vez que você quer ser beta (ou $, ou σ) neutro, isso significa que, por extensão, o lado comprado do negócio também será severamente limitado, ainda que leve muito menos risco idiossincrático.
Talvez possamos usar os limites de risco para determinar se queremos ser beta-neutros ou não. Se você não conseguir se tornar neutro por causa de limites, então é uma negociação de cronometragem beta. Você pode colocar sua fé em uma heurística tão hacky?
O que fazemos em situações em que temos que equilibrar um portfólio longo / curto com todos os tipos de classes de ativos diferentes? Separamos o portfólio (por classe, por fator de carga?) Para equilibrar cada parte separadamente? Como vimos no Caso E, nem sempre é claro quais instrumentos entram em qual grupo.
Como alocar entre estratégias?
Até agora, estamos olhando apenas para instrumentos, mas talvez essa seja a abordagem errada. E se usássemos a série de retorno de estratégias? Afinal, a distribuição de retornos esperados condicionada a um sinal disparado de uma estratégia específica não é a mesma que a distribuição de retornos esperados incondicionais do instrumento.
O que fazemos se a Estratégia A quiser colocar 5 negócios e a Estratégia B quiser investir em 1 negócio? Nós nos preocupamos em distribuir o orçamento de risco através de instrumentos, ou através de estratégias, ou talvez uma mistura de ambos? Como podemos equilibrar isso com limites de risco? Como podemos equilibrar isso com as cargas fatoriais?
Então, para resumir as coisas. O algoritmo de otimização de portfólio ideal equilibra perfeitamente os custos de negociação, instrumentos, classes de ativos, exposição a fatores (mas somente quando necessário), estratégias e faz tudo sob restrições impostas pelo gerenciamento de riscos. No final, não creio que haja boas respostas aqui. Apenas feias coleções de heurísticas.
Seguidores de tendência fazem previsões como todos os outros.
Este post foi solicitado pela entrevista de Michael Covel Traders & # 8217; Revista em que ele afirma que os seguidores da tendência não tentam fazer previsões. Essa ideia de que seguidores de tendências não prevêem retornos é amplamente e frequentemente repetida. Também é um absurdo completo.
Toda estratégia de negociação faz previsões 1. Se essas previsões são explícitas ou ocultas por trás das regras de entrada / saída, isso é irrelevante. Todos os sistemas seguindo a tendência padrão podem ser convertidos em um modelo de previsão que prevê retornos, porque eles são fundamentalmente equivalentes.
A formulação específica da tendência seguinte sistema não importa, então eu vou mantê-lo simples. Um indicador típico de tendência seguinte é o canal Donchian, que é simplesmente o n-bar mais alto e o mais baixo. Considere um sistema que se alonga quando o preço fecha acima do canal Donchian de 100 dias e sai quando o preço fecha abaixo do canal Donchian de 50 dias.
Esta é a curva patrimonial do sistema aplicado aos futuros de petróleo bruto:
Este sistema pode ser convertido em um modelo de previsão do formulário.
a variável dependente y é retornada e x será uma variável fictícia que recebe o valor 1 se estivermos em uma tendência e o valor 0 se não estivermos em uma tendência. Como definimos o & # 8220; em uma tendência & # 8221 ;? Usando exatamente as mesmas condições que usamos para entradas e saídas, é claro.
Estimamos os parâmetros e descobrimos que α ≃ 0 e β = 0,099% (com p-valor 0,013). Assim, usando essa tendência seguindo o modelo de previsão, o retorno esperado quando em uma tendência é de aproximadamente 10 bps por dia, e o retorno esperado quando não está em uma tendência é zero. Olha só, eu estou prevendo!
Mesmo sem modelar explicitamente esse relacionamento, os seguidores de tendências prevêem implicitamente que as tendências persistem além de seu ponto de entrada; caso contrário, a tendência seguinte não funcionará. O modelo pode ser facilmente estendido com regras de entrada / saída mais complicadas, vendas a descoberto, os efeitos do dimensionamento de posição baseado em volatilidade, etc.
Visualizando a similaridade entre várias séries temporais.
Apresentar a similaridade entre várias séries temporais de maneira intuitiva não é um problema fácil. A solução padrão é uma matriz de correlação, mas é uma abordagem problemática. Embora seja mais fácil verificar a correlação entre quaisquer duas séries e (com a ajuda da formatação condicional) a relação entre uma série e todo o resto, é difícil extrair uma compreensão intuitiva de como todas as séries são relacionados uns aos outros. E se você quiser adicionar uma dimensão de tempo para ver como as correlações mudaram, as coisas se tornam ainda mais problemáticas.
A solução é o dimensionamento multidimensional (a versão "clássica" é conhecida como Análise de coordenadas principais). É uma maneira de obter uma matriz de distância e, em seguida, colocar cada objeto em N dimensões, de modo que as distâncias entre cada uma delas sejam preservadas da melhor forma possível. Obviamente, N = 2 é o caso de uso óbvio, pois facilita as visualizações mais simples. O MDS funciona de maneira semelhante ao PCA, mas usa a matriz de dissimilaridade como entrada em vez da série. Aqui está uma boa explicação sobre a matemática por trás dele.
Deve-se notar que o MDS não se preocupa em como você escolhe medir a distância entre as séries temporais. Embora eu usei correlações neste exemplo, você poderia facilmente usar uma técnica como distorção de tempo dinâmico.
Abaixo está um exemplo com SPY, TLT, GLD, SLV, IWM, VNQ, VGK, EEM, EMB, usando correlações de 252 dias como a medida de distância, calculada toda segunda-feira. O gráfico de movimento nos permite ver não apenas as distâncias entre cada ETF em um ponto no tempo, mas também como elas evoluíram.
Algumas coisas interessantes a serem observadas: observe como REITs (VNQ) se correlacionam mais estreitamente com as ações durante a crise financeira, quão distante a dívida dos mercados emergentes (EMB) é de tudo, e a mudança na relação entre prata (SLV) e ouro (GLD) .
Aqui está a mesma coisa com um monte de ETFs do setor:
Para fazer MDS em casa: em R e MATLAB você pode usar cmdscale (). Eu postei uma implementação em C # aqui.
Anunciando o QPAS: análise de desempenho, risco e execução de código aberto.
Quando eu estava começando há alguns anos atrás, eu realmente não acompanhei meu desempenho além do simples relatório gerado pelo IB. Eventualmente, mudei para o excel folhas que cresceram para um tamanho ridículo e incontrolável. Eu dei uma olhada no tradingdiary pro, mas não era flexível ou profundo o suficiente para minhas necessidades.
Então eu escrevi o meu próprio (eu escrevi sobre isso aqui): por um lado eu me concentrei na flexibilidade em termos de como os dados podem ser divididos (com um sistema muito versátil de estratégia / trade / tag), e por outro lado produzindo informações significativas e relevantes que podem ser aplicadas para melhorar sua negociação. Agora eu o transferi para o WPF e removi vários componentes proprietários para que ele pudesse ser aberto. Então & # 8230;
Estou muito feliz em anunciar que a primeira versão (0.1) do QPSMA Performance Analytics Suite (QPAS) já está disponível. Para obter uma visão geral de seus principais recursos de análise de desempenho, consulte a documentação do relatório de desempenho.
A porta ainda está muito fresca, por isso agradeço muito o seu feedback. Para relatórios de bugs, solicitações de recursos, etc., você pode usar o rastreador de problemas do GitHub, o grupo do google ou os comentários nesta postagem.
Embora as instruções flexíveis do IB forneçam dados suficientes para a maioria das funcionalidades, o QPAS precisa de dados adicionais para itens como gráficos, análise de execução e benchmarking. Por padrão, ele usa o QDMS, mas você pode usar sua própria fonte de dados implementando a interface IExternalDataSource.
Atualmente, o único intermediário suportado é o Interactive Brokers, mas, para aqueles que não os utilizam, o sistema de importação de instruções é flexível: consulte a página Implementando um analisador de instrução na documentação para obter mais informações.
Devo observar que, em geral, projetei o aplicativo para mim e para meu próprio estilo de negociação, o que significa que alguns recursos que você poderia esperar estão ausentes: nenhuma atribuição de setor / fator para catadores de estoque, nenhuma estatística de atribuição para catadores de crédito, cálculo de frequência diária de coisas como MAE / MFE (portanto, qualquer negociação intradia mostrará zero MAE / MFE) e nenhuma análise específica de opções. Todas essas coisas seriam razoavelmente fáceis de adicionar se você quiser (e saber um pouco de C #), no entanto.
Clique aqui para instalar.
Documentação.
Fonte no GitHub.
Estatísticas de desempenho altamente detalhadas Análise de riscos ex-post Benchmarking Análise de execução Diário comercial: anote negociações com rich text e imagens.
Requisitos:
MySQL, ou MariaDB, ou SQL Server QDMS (necessário apenas para alguns recursos: benchmarks, análise de execução e gráficos)
Screenshots:
Benchmarking Análise de execução Esperado déficit.
Excursão adversa máxima Uso de capital relativo por estratégia Anotações de comércio com texto rico e imagens.
Média acumulada de retornos por dia Visão geral do comércio Desempenho por instrumento.
Divergências: Spreads e tamanho de rendimento.
E agora para algo completamente diferente. Um pouco de macro e um pouco de desempenho relativo de fator: o que acontece quando spreads de yield e small caps divergem do S & P 500?
Spreads de alto rendimento.
Primeiro, vamos brincar com alguns dados no estilo macro. Abaixo, você encontrará o SPY e o BofA Merrill Lynch, Spread ajustado por opção de alto rendimento Master II nos EUA (um índice de spread de títulos de alto rendimento) representados contra o SPY.
Obviamente, os dois estão inversamente correlacionados, uma vez que os spreads tendem a se ampliar nos mercados em baixa. Valores muito baixos são um sinal de superaquecimento. Ainda estamos a cerca de 130 pb dos pontos baixos antes da crise, pelo que a situação actual parece bastante boa. Há um pouco mais do que isso, no entanto.
Primeiro, divergências. Quando as ações continuam fazendo novos máximos e os spreads começam a subir, em geral são más notícias. Algumas das áreas mais interessantes são: julho - 98, abril - 00, julho - 07 e julho - 1117.
Também interessante é o contra-case de May & # 8217; 10 que não apresentava tal divergência: o Flash Crash pode ter sido o impulsionador dessa queda, e isso obviamente não está ligado à situação macro em geral e aos spreads de alto rendimento em particular.
Então, vamos tentar quantificar essas divergências e ver se podemos obter algo útil delas. No gráfico acima, marquei os períodos em que tanto o spread quanto o SPY estavam entre os 10% de seus 100 intervalo de dia. Como você pode ver, em geral, eles eram próximos ao topo, embora houvesse vários "sinais falsos", por exemplo, em novembro de 2005 e 06 de setembro de 2006. Aqui estão os retornos cumulativos para os próximos 50 dias após tal sinal:
Muito deste efeito depende da sobreposição de períodos, por isso não é tão bom quanto parece. Ainda assim, acho que é definitivamente algo que vale a pena ficar de olho. É claro que agora estamos bem longe desse tipo de sinal, já que os spreads estão caindo consistentemente.
Tamanho: quando pequenas ações divergem.
Ultimamente, nós estamos vendo o Russell 2000 (e até certo ponto o NASDAQ) dar um mergulho enquanto o S & P 500 está indo para os lados com apenas quedas muito pequenas. Existem várias maneiras de formular essa situação quantitativamente. Eu simplesmente fui com a diferença entre o retorno de 20 dias do SPY e do IWM. Os resultados são bastante claros: o super desempenho das grandes capitalizações é um sinal (levemente) de alta, tanto para as ações grandes como para as pequenas.
Quando a diferença ROC (20) é maior que 3%, o SPY tem retornos acima da média para as próximas 2 a 3 semanas, até 10pb por dia (a IgM também melhora, retornando aproximadamente 16pb por dia durante os próximos 10 dias) . O inverso também é útil para observar: o desempenho superior de pequena capitalização é de baixa. Quando a diferença ROC (20) cai abaixo de -3%, os próximos 10 dias SPY retornam uma média de -5pb por dia. Obviamente, não é suficiente por si só para ser curto, mas definitivamente poderia ser útil em combinação com outros modelos.
Outra divergência interessante a considerar é a amplitude. Nas duas últimas semanas, enquanto o SPY está pairando em todos os máximos históricos, muitas das ações do índice estão abaixo de seus SMAs de 50 dias. Vou deixar a pesquisa da divergência da respiração como um exercício para o leitor, mas notarei que, ao contrário da divergência de tamanho, ela tende a ser de baixa.
Em outras notícias, comecei a postar binários de QDMS (o QUSMA Data Management System) à medida que ele se torna mais maduro. Você pode encontrar o link na página do projeto. Ele solicitará uma atualização quando uma nova versão for lançada.
Algumas notas sobre a permutação de parâmetros do sistema.
O conceito é essencialmente usar todos os resultados de uma otimização de força bruta e escolher a mediana como a melhor estimativa de desempenho fora da amostra. O primeiro passo é:
Intervalos de varredura de parâmetros para o conceito de sistema são determinados pelo desenvolvedor do sistema.
E aqui reside o principal problema. O intervalo de varredura determinará a mediana. Se o intervalo for muito grande, a estimativa será muito baixa e baseada em dados que são essencialmente irrelevantes porque o negociador nunca escolheria essa combinação de parâmetros. Se o alcance for muito estreito, todo o exercício será inútil. Mas o autor não fornece nenhuma maneira de escolher o intervalo ótimo a priori (porque não existe tal método). E, claro, como é mencionado no artigo, as aplicações repetidas de SPP com diferentes intervalos são problemáticas.
Para ilustrar, vamos usar minha postagem da UDIDSRI em outubro de 2012. O período de amostragem será o tempo anterior a essa postagem e o & # 8220; da amostra & # 8221; período será o tempo depois; o instrumento é QQQ, e a estratégia é ir muito longe no fechamento quando o UDIDSRI estiver abaixo de X (o valor no eixo x abaixo).
Como você pode ver, a relação entre os retornos do dia seguinte e o UDIDSRI é bastante estável. Os retornos fora da amostra são mais altos na maior parte do intervalo, mas isso é apenas um artefato do gigante mercado em alta do período fora da amostra. Qual teria sido a faixa ótima de SPP em outubro de 2012? Qual é a faixa ideal de SPP em retrospectiva? O resultado teria sido útil? Faça a si mesmo estas perguntas para cada gráfico abaixo.
Vamos dar uma olhada no SPY:
Uau. O ótimo mudou para & lt; 0,05. Dado um intervalo muito amplo, o SPP teria feito uma previsão correta nesse caso. Mas isso é uma mudança permanente ou apenas um resultado de um pequeno tamanho de amostra? Vamos ver os resultados de 30 equity ETFs 1:
Bem, isso é tudo. E quanto ao SPP em comparação com outros métodos?
O uso de todos os dados de mercado disponíveis permite a melhor aproximação do longo prazo, de forma que quanto mais dados de mercado estiverem disponíveis, mais precisa será a estimativa.
Este não é o caso. A crítica do autor ao currículo é que ele faz o uso ineficiente dos dados de mercado, mas é uma maneira ruim de ver as coisas. O CV usa todos os dados (não apenas em & # 8220; um go & # 8221;) e nos fornece estimativas reais de desempenho fora da amostra, enquanto o SPP apenas faz um & quot; & # 8220; adivinhando & # 8221 ;. Um palpite que é 100% dependente de um intervalo de parâmetros escolhido arbitrariamente. Imagine, por exemplo, dois sistemas: um tem parâmetros ótimos estáveis ​​ao longo do tempo, enquanto o outro não. As implicações em termos de desempenho fora da amostra são óbvias. CV irá mostrar com precisão a diferença entre os dois, enquanto o SPP não pode. Dependendo do intervalo escolhido, o SPP pode sub-representar gravemente o desempenho real do sistema estável. Há muita conversa sobre "regressão à média", mas o que significa isso?
O SPP minimiza o erro padrão da média (SEM) usando todos os dados de mercado disponíveis na simulação histórica.
Isso é verdade, mas mais uma vez o que significa? A questão real não é o erro da estimativa, é se você está estimando a coisa certa em primeiro lugar. A divisão de dados do CV não é um erro arbitrário feito para aumentar o erro! Há um ponto, e isso está medindo o desempenho real fora da amostra, dados os parâmetros que realmente teriam sido escolhidos.
tl; dr: para alguns sistemas, o SPP é inútil ou simplesmente errado. Para algumas outras classes de sistemas em que se pode esperar que o desempenho fora da amostra varie em vários parâmetros, o SPP provavelmente produzirá resultados razoáveis. Mesmo no último caso, acho que é melhor ficar com o currículo.
Engenharia Reversa “Alpha Curves” do DynamicHedge, Parte 2.5 de 3: DTW Barycenter Averaging.
A média de séries temporais financeiras de uma maneira que preserva recursos importantes é um problema interessante e central na busca pela criação de boas curvas alfa "#." Uma média padrão em várias séries temporais geralmente suaviza os aspectos mais salientes: a magnitude dos extremos e seu tempo. Naturalmente, esses pontos são os mais importantes para os comerciantes, pois dão orientações sobre quando e onde negociar.
DTW Barycenter Averaging (ou DBA) é um algoritmo iterativo que usa distorção de tempo dinâmico para alinhar a série a ser calculada com uma média em evolução. Foi introduzido em um método de média global para distorção de tempo dinâmico, com aplicações para clustering por Petitjean, et. al. Como você verá abaixo, o método DBA tem várias vantagens que são muito importantes quando se trata de combinar séries temporais financeiras. Observe que ele também pode ser usado para agrupar séries temporais usando k-means. Grosso modo, o algoritmo funciona da seguinte maneira:
As séries n a serem calculadas são rotuladas S 1 & # 8230; S n e têm comprimento T. Comece com uma média inicial de série A. Enquanto a média não convergiu: Para cada série S, execute DTW contra A e salve o caminho. Use os caminhos e construa uma nova média A dando a cada ponto um novo valor: a média de cada ponto de S conectado a ele no caminho DTW.
Você pode encontrar instruções passo a passo detalhadas no documento vinculado acima.
Um bom processo de inicialização é extremamente importante porque, embora o próprio processo de DBA seja determinístico, o resultado final depende muito da sequência média inicial. Para nossos objetivos, temos três objetivos distintos:
Para preservar a forma das entradas. Preservar a magnitude dos extremos no eixo y. Para preservar o tempo desses extremos no eixo x.
Vamos dar uma olhada em como o DBA se compara à média normal e como a sequência média inicial afeta o resultado final. Para fins de teste, comecei com esta série:
Em seguida, criei várias cópias adicionando uma variação aleatória e um deslocamento do eixo x:
Para começar, vamos ver o que uma média simples faz. Observe a forma, a distância entre o pico e o vale e a magnitude dos valores mínimo e máximo: todos distantes da série original.
A média simples falha em todos os 3 objetivos estabelecidos acima.
Agora, para o DBA. Quais são as nossas opções de inicialização? Meu primeiro instinto foi tentar iniciar o processo usando a média simples, acima. Enquanto isso atinge o objetivo # 2, a forma geral é obviamente errada.
Petitjean et. al. Recomendamos escolher uma das séries de entrada aleatoriamente. Por um lado, isso preserva bem a forma, mas o tempo dos extremos depende de qual série foi escolhida. Além disso, um processo determinístico é preferível por razões óbvias.
Minha solução foi usar uma série de entrada para inicialização, mas escolhê-la por meio de um processo determinístico. Eu primeiro des - trend todas as timeseries e, em seguida, registro o valor do eixo x dos valores máximo e mínimo do eixo y para cada série. A série que está mais próxima da mediana desses valores é escolhida. Isso nos permite preservar a forma, as magnitudes extremas do eixo y e ter uma boa ideia da posição típica do eixo x desses extremos:
Você pode encontrar o código C # para fazer o DBA aqui.
Engenharia reversa DynamicHedge & Alpha; Alpha Curves & Parte 8 de 3: K-Medoids Clustering.
Na primeira parte da série nós cobrimos distorção dinâmica do tempo. Aqui nós olhamos para clustering. K-means clustering é provavelmente o método mais popular, principalmente devido à sua simplicidade e algoritmo intuitivo. No entanto, tem algumas desvantagens que o tornam uma má escolha quando se trata de séries temporais em cluster. Em vez disso, usaremos o clustering do K-medoids.
A principal diferença conceitual entre K-meios e K-medoids é a distância usada no algoritmo de clustering. K-means usa a distância de um centróide (uma média dos pontos no cluster), enquanto K-medoids usa a distância de um medoid, que é simplesmente um ponto selecionado a partir dos dados. Os algoritmos usados ​​para chegar aos clusters finais são bem diferentes.
O agrupamento K-medóide depende das distâncias de k (neste caso 2) pontos extraídos dos dados.
As distâncias K-médias são tiradas de um centróide que é criado pela média dos pontos desse cluster.
Como o K-medoids se compara ao K-means? Ele tem vários recursos que o tornam superior para a maioria dos problemas financeiros.
K-medoids não é sensível a valores discrepantes que podem "puxar" o & # 8221; o centróide para uma posição desvantajosa. K-medoids pode manipular funções arbitrárias de distância. Ao contrário de K-means, não há necessidade de um meio ser definido. Ao contrário de K-means, K-medoids não tem problemas com clusters de tamanhos diferentes. K-medoids is also potentially less computationally intensive when the distance function is difficult to solve, as distances only need to be computed once for each pair of points.
Note that there’s no guarantee on the size of each cluster. If you want to, it’s trivial to add some sort of penalty function to force similarly-sized clusters.
The algorithm is simple:
Choose k points from the sample to be the initial medoids (see below for specific methods). Give cluster labels to each point in the sample based on the closest medoid. Replace the medoids with some other point in the sample. If the total cost (sum of distances from the closest medoid) decreases, keep this new confirugration. Repeat until there is no further change in medoids.
Initialization, i. e. picking the initial clusters before the algorithm is run, is an important issue. The final result is sensitive to the initial set-up, as the clustering algorithm can get caught in local minimums. It is possible to simply assign labels at random and repeat the algorithm multiple times. I prefer a deterministic initialization method: I use a procedure based on Park et al. , the code for which you can find further down. The gist of it is that it selects the first medoid to be the point with the smallest average distance to all other points, then selects the remaining medoids based on maximum distance from the previous medoids. It works best when k is set to (or at least close to) the number of clusters in the data.
An example, using two distinct groups (and two outliers):
Initial medoids with k=2.
The first medoid is selected due to its closeness to the rest of the points in the lower left cluster, then the second one is selected to be furthest away from the first one, thus “setting up” the two obvious clusters in the data.
In terms of practical applications, clustering can be used to group candlesticks and create a transition matrix (also here), to group and identify trading algorithms, or for clustering returns series for forecasting (also here). I imagine there’s some use in finding groups of similar assets for statistical arbitrage, as well.
Something I haven’t seen done but I suspect has potential is to cluster trades based on return, length, adverse excursion, etc. Then look at the average state of the market (as measured by some indicators) in each cluster, the most common industries of the stocks in each cluster, or perhaps simply the cumulative returns series of each trade at a reasonably high frequency. Differences between the “good trades” cluster(s) and the “bad trades” cluster(s) could then be used to create filters. The reverse, clustering based on conditions and then looking at the average returns in each cluster would achieve the same objective.
I wrote a simple K-medoids class in C#, which can handle arbitrary data types and distance functions. You can find it here. I believe there are packages for R and python if that’s your thing.
2013: Lessons Learned and Revisiting Some Studies.
The year is over in a few hours and I thought it would be nice to do a quick review of the year, revisit some studies and the most popular posts of the year, as well as share some thoughts on my performance in 2013 and my goals for 2014.
Revisiting Old Studies.
IBS did pretty badly in 2012, and didn’t manage to reach the amazing performance of 2007-2010 this year either. However, it still worked reasonably well: IBS < 0.5 led to far higher returns than IBS > 0.5, and the highest quarter had negative returns. It still works amazingly well as a filter. Most importantly the magnitude of the effect has diminished. This is partly due to the low volatility we’ve seen this year. After all IBS does best when movements are large, and SPY’s 10-day realized volatility never even broke 20% this year. Here are the stats:
The original post can be found here. Performance in 2013 hasn’t been as good as in the past, but was still reasonably OK. I think the results are, again, at least partially due to the low volatility environment in equities this year.
UDIDSRI performance, close-to-close returns after a zero reading.
DOTM seasonality.
I’ve done 3 posts on day of the month seasonality (US, EU, Asia), and on average the DOTM effect did its job this year. There are some cases where the top quarter does not have the top returns, but a single year is a relatively small sample so I doubt this has any long-term implications. Here are the stats for 9 major indices:
Day of the month seasonality in 2013.
VIX:VXV Ratio.
My studies on the implied volatility indices ratio turned out to work pretty badly. Returns when the VIX:VXV ratio was 5% above the 10-day SMA were -0.03%. There were no 200-day highs in the ratio in 2013!
Atuação.
Overall I would say it was a mixed bag for me this year. Returns were reasonably good, but a bit below my long-term expectations. It was a very good year for equities, and my results can’t compete with SPY’s 5.12 MAR ratio, which makes me feel pretty bad. Of course I understand that years like this one don’t represent the long-term, but it’s annoying to get beaten by b&h nonetheless.
Some strategies did really well:
Others did really poorly:
Risk was kept under control and entirely within my target range, both in terms of volatility and maximum drawdown. Even when I was at the year’s maximum drawdown I felt comfortable…there is still “psychological room” for more leverage. Daily returns were positively skewed. My biggest success was diversifying across strategies and asset classes. A year ago I was trading few instruments (almost exclusively US equity ETFs) with a limited number of strategies. Combine that with a pretty heavy equity tilt in the GTAA allocation, and my portfolio returns were moving almost in lockstep with the indices (there were very few shorting opportunities in this year’s environment, so the choice was almost always between being long or in cash). Widening my asset universe combined with research into new strategies made a gigantic difference:
I made a series of mistakes that significantly hurt my performance figures this year. Small mistakes pile on top of each other and in the end have a pretty large effect. All in all I lost several hundred bp on these screw-ups. Hopefully you can learn from my errors:
Back in March I forgot the US daylight savings time kicks in earlier than it does here in Europe. I had positions to exit at the open and I got there 45 minutes late. Naturally the market had moved against me. A bug in my software led to incorrectly handling dividends, which led to signals being calculated using incorrect prices, which led to a long position when I should have taken a short. Taught me the importance of testing with extreme caution. Problems with reporting trade executions at an exchange led to an error where I sent the same order twice and it took me a few minutes to close out the position I had inadvertently created. I took delivery on some FX futures when I didn’t want to, cost me commissions and spread to unwind the position. Order entry, sent a buy order when I was trying to sell. Caught it immediately so the cost was only commissions + spread. And of course the biggest one: not following my systems to the letter. A combination of fear, cowardice, over-confidence in my discretion, and under-confidence in my modeling skills led to some instances where I didn’t take trades that I should have. This is the most shameful mistake of all because of its banality. I don’t plan on repeating it in 2014.
Goals for 2014.
Beat my 2013 risk-adjusted returns. Don’t repeat any mistakes. Make new mistakes! But minimize their impact. Every error is a valuable learning experience. Continue on the same path in terms of research. Minimize model implementation risk through better unit testing.
Mais popular.
Finally, the most popular posts of the year:
I want to wish you all a happy and profitable 2014!

Time Series Matching with Dynamic Time Warping.
THIS IS NOT INVESTMENT ADVICE. The information is provided for informational purposes only.
In the Time Series Matching post, I used one to one mapping to the compute distance between the query(current pattern) and reference(historical time series). Following chart visualizes this concept. The distance is the sum of vertical lines.
An alternative way to map one time series to another is Dynamic Time Warping(DTW). DTW algorithm looks for minimum distance mapping between query and reference. Following chart visualizes one to many mapping possible with DTW.
To check if there a difference between simple one to one mapping and DTW, I will search for time series matches that are similar to the most recent 90 days of SPY in the last 10 years of history. Following code loads historical prices from Yahoo Fiance, setups the problem and computes Euclidean distance for the historical rolling window using the Systematic Investor Toolbox:
Next, let’ examine the top 10 matches using Dynamic Time Warping distance. I will use the Dynamic Time Warping implementation from dtw package.
Both algorithms produced very similar matches and very similar predictions. I would use these predictions as an educated guess to market action going forward. So far, it looks like the market will not be going up in full throttle in the next 22 days.

Dynamic Time Warping.
History does not repeat itself, but it often rhymes – Mark Twain.
You certainly wouldn’t know it from a reading of the CBOE S&P500 Volatility Index (CBOE:VIX), which printed a low of 11.44 on Friday, but there is a great deal of uncertainty about the prospects for the market as we move further into the third quarter, traditionally the most challenging period of the year. Reasons for concern are not hard to fathom, with the Fed on hold and poised to start raising rates, despite anemic growth in the economy; gloom over the “earnings recession”; and an abundance of political risk factors in play, not least of which is the upcoming presidential election.
At times like these investors need a little encouragement to stay the course – and where better to look for it than in the history books. More specifically, the question is whether the past has anything to teach us about the prospects for the market, going forward. Academic theory says no; but Wall Street traders controlling trillions of dollars of investments believe that, on the contrary, history contains valuable information that can be helpful in predicting the likely future outcome for the market.
Correlation, Drift and Volatility.
There are several difficulties in making historical comparisons. Firstly, while it maybe intuitively obvious what one means when speaking about a “comparable” historical period, it is not as easy as one might think to translate that concept into mathematical form. And it does need to be translated, because unless you plan to study market history comprising tens or hundreds of thousands of historical patterns by hand (eye), you are going to have to rely on computers to do the heavy lifting.
Perhaps the most well-known measure of “similarity” is correlation; but this is entirely unsuited to the task at hand. The reason is that correlation removes the very thing that traders are most interested in: the trend, or drift. Let me illustrate the point with a simple example. The following chart illustrates two, perfectly correlated series (technically, Wiener processes) that simulate the evolution of returns in two stocks.
Source: Wolfram Research.
Even though the processes are perfectly correlated, they end up producing very different outcomes, chiefly because the red process has a strongly positive drift, or trend, while the green process has a strongly negative drift. It is highly implausible that the path realized by the green process would be regarded as similar to that of the red process, despite their correlation. The moral is simple: whatever else we mean by “similar”, it must entail a comparable result in terms of the overall appreciation (or depreciation) of the stock; i. e. the two periods must show a similar degree of trending behavior.
Now let’s consider a second illustrative example. Here, not only are the two processes perfectly correlated, they also have an identical drift (14%).
Source: Wolfram Research.
Despite their commonalities, it is again very unlikely that we would regard the behavior of the green process as being sufficiently “similar” to that of the red process. Here the problem is not the difference in drift, but in volatility, which is ten times higher for the green process than for the red process. Even though both processes are expected to appreciate at the same average rate, the high volatility of the green process means that it may appreciate at a much faster, or slower, rate than the mean. We say that the volatility “drowns out” the drift in the process, at least over the short term.
So, in conclusion, what we are looking for in our quest for “similarity” is a period in which the process has displayed, not only a similar trend, but also a comparable level of volatility.
The challenges don’t end there, however. Let’s say we find a period in history in which the overall appreciation and volatility of the process is “similar” to that of the period of interest, but the historical period is shorter, or longer, than the period we are evaluating. Does that matter? Well to some degree, it must: if during the historical period the stock appreciated by 50% in 3 days, vs the same percentage over a term of 3 months during the current period, it is again unlikely that we would regard the historical period as similar. On the other hand, if the two periods differed in length by, say, only 4-5 days out of a total of 30, would that be enough to make you discard the historical precedent? Probably not, other things being equal. So there has to be scope for some, but not unlimited, flexibility in making historical comparisons using periods of slightly differing durations.
Solving the Correspondence Problem with Dynamic Time Warping.
Having presented the problem, let me now turn to the solution.
Dynamic Time Warping (DTW) is a machine learning algorithm originally developed for speech recognition that aims two align two sequences by warping the time axis iteratively until a match is found between the two sequences.
Consider two sequences.
The two sequences can be arranged on the sides of a grid, with one on the top and the other up the left hand side. Both sequences start on the bottom left of the grid.
Inside each cell a distance measure is used to compare the corresponding elements of the two sequences. To find the best match or alignment between these two sequences one needs to find a path through the grid which minimizes the total distance between them. The procedure for computing this overall distance involves finding all possible routes through the grid and computing the overall distance for each one. The overall distance is the minimum of the sum of the distances between the individual elements on the path divided by the sum of the weighting function.
A great many measures of “distance” (the inverse of “similarity”) have been developed over the years, in fields as disparate as image analysis, signal processing and machine learning. In what follows we shall be using Euclidean Distance as our preferred distance metric, but there are a large number of alternative options:
The DTW algorithm optimizes the distance, constrained by limits on acceptable paths through the grid:
Monotonic condition : the path will not turn back on itself, both the i and j indexes either stay the same or increase, they never decrease. Continuity condition : the path advances one step at a time. Both i and j can only increase by at most 1 on each step along the path. Boundary condition : the path starts at the bottom left and ends at the top right. Warping window condition : a good path is unlikely to wander very far from the diagonal. The distance that the path is allowed to wander is the window width. Slope constraint condition : The path should not be too steep or too shallow. This prevents short sequences matching too long ones. The condition is expressed as a ratio p/q where p is the number of steps allowed in the same (horizontal or vertical) direction. After p steps in the same direction is not allowed to step further in the same direction before stepping at least q time in the diagonal direction.
These constraints allow to restrict the moves that can be made from any point in the path and so limit the number of paths that need to be considered. The power of the DTW algorithm lies in that instead finding all possible routes through the grid which satisfy the above conditions, it works by keeping track of the cost of the best path to each point in the grid. During the calculation process of the DTW grid it is not known which path is minimum overall distance path, but this can be traced back when the end point is reached.
Market Outlook Using Dynamic Time Warping.
Let’s apply the DTW approach to find a similar period in the history of the SPDR S&P 500 ETF (NYSEArca:SPY).
We download data for the SPY ETF and look for periods in the history of the series from 1995 that are similar to how the process has evolved in Q3 2016. Note that we are using log-returns rather than raw prices. This is because what we care about is that the rate at which the ETF has appreciated relative to its initial starting value should be comparable for both periods.
The algorithm picks out a 21-day period from 3/6/1995 to 4/7/1995 as being the most similar to the way the SPY ETF has progressed in Q3 2016. Let’s take a look at the two periods and assess their similarity. Note that we set the initial starting price at 100 in each case.
It is clear that the SPY appreciates by approximately the same percentage over the two periods, but the way in which it evolves looks rather different in each case. That’s because the earlier period covers only 25 business days, compared to the 51 days from the start of Q3 2016 period. If you can imagine dilating the shorter time span of the orange line in the above chart to cover the same span as the blue line, the patterns look very similar indeed.
We are going to use the historical period to forecast how the ETF is likely to evolve of the next 35 days to the end of Q3. We do this by mapping the evolution of the ETF over the 35 days following the end of the historical period on 4/7/95 and projecting that pattern onto the end of the current period, from 8/12/16. The result is as follows.
In other words, if the closely parallel history of the series from 1995 were to repeat itself in 2016, we might expect a further gain of perhaps 3.5% to 4% in the SPY ETF between now and the end of September.
Whether you hold this approach as valid or not depends largely on how credible you regard the thesis that history is inclined to repeat itself. There are significant differences in fundamental factors that are likely to affect the outcome over the next several months, compared to the similar period in 1995.
The early part of 1995 marked the beginning of a powerful market surge driven by an economic boom that lasted until late 1999. By contrast, in the more recent period, the economy has been emerging very slowly from the long-running credit crisis commencing in 2008. Likewise, in contrast to 1995 when the Fed was at the early stage of reducing interest rates, the Fed is now more likely to start raising rates at some point before the end of 2016.
While these and other aspects of the economic landscape are fundamentally different, there are parallels. The recent slowdown in productivity, for example, often cited as a cause for concern, mirrors a similar slowdown in 1995. As Bloomberg points out, such pauses are not uncommon and in fact the plateaus in 1993-1996 and 2003-2005 occurred at a time when the economy was pretty healthy. Conversely, several of the biggest productivity jumps have happened during recessions, in 2001 and 2009.
Conclusão.
Doom-mongering is at record levels these days, as the market continues to make new highs. The Wall Street Journal, for example, recently ran a piece entitled “This Tech Bubble Is Bursting”, drawing parallels with the dot-com bust of 2000.
They could be right.
On the other hand, if history repeats itself we could see the market 4% higher going into the final quarter of 2016.
Referências.
Sakoe, H. and Chiba, S. Dynamic programming algorithm optimization for spoken word recognition. IEEE Trans. on Acoust., Speech, and Signal Process., ASSP 26, 43-49 (1978).

Subsequence dynamic time warping for charting: Bullish and bearish class predictions for NYSE stocks.
Destaques.
We formally state and justify a set of five common characteristics of charting.
We propose an algorithmic scheme that captures these characteristics.
The proposed algorithm is primarily based on subsequence Dynamic Time Warping.
The proposed algorithm performs significantly in predicting bearish classes.
Bearish class predictions generate on average significant maximum potential profits.
Advanced pattern recognition algorithms have been historically designed in order to mitigate the problem of subjectivity that characterises technical analysis (also known as ‘charting’). However, although such methods allow to approach technical analysis scientifically, they mainly focus on automating the identification of specific technical patterns. In this paper, we approach the assessment of charting from a more generic point of view, by proposing an algorithmic approach using mainly the dynamic time warping (DTW) algorithm and two of its modifications; subsequence DTW and derivative DTW. Our method captures common characteristics of the entire family of technical patterns and is free of technical descriptions and/or guidelines for the identification of specific technical patterns. The algorithm assigns bullish and bearish classes to a set of query patterns by looking the price behaviour that follows the realisation of similar, in terms of price and volume, historical subsequences to these queries. A large number of stocks listed on NYSE from 2006 to 2015 is considered to statistically evaluate the ability of the algorithm to predict classes and resulting maximum potential profits within a test period that spans from 2010 to 2015. We find statistically significant bearish class predictions that generate on average significant maximum potential profits. However, bullish performance measures are not significant.

Grow Your Account Up to 10% Weekly.
Fully Revealed – Strategy Guaranteed to Make Money Whether the Market Goes Up, Down, or Stays the Same. In Fact, There is Only 1 Way This Strategy Can Lose Money. Sign Up Now to Find out What the One Way is, and How This Strategy Can Forever Change How You Trade.
Our Offerings Are Centered Around Our Exclusive Strategy, Helping You:
Earn An Average of Up To 10% Weekly Returns Trade With Comfort Knowing Your Downside Is Capped/Limited Our Strategy Requires A Low Amount of Capital to Start Trades Do Not Require Intraday Marketing Watching Easy to Set Up, Requiring Less Than 10 Minutes Weekly Strategy Makes Money In An Up or Down Market Exclusive Strategy Offers High Probability of Success.
Gain immediate access to our webinar recording revealing our strategy with actual trade examples and Q&A. Learn the fastest and safest way to grow your account.
Informações importantes sobre riscos.
Muitos traders tendem a encobrir renúncias de risco, como se fossem meras tecnicalidades exigidas no decorrer dos negócios neste setor. Este é um hábito perigoso que muitos traders desenvolveram. Com todas as estratégias de negociação, há "potencial de lucro" e há "potencial de risco". Com demasiada frequência, os traders interpretam o "potencial de lucro" como uma "promessa de lucros", enquanto, ao mesmo tempo, se os riscos são percebidos, o termo "potencial de risco" é interpretado como "eu fui enganado". Isso está negociando. Existem riscos e esses riscos são muito reais. Risco potencial significa que você pode ter perdas. Lucro potencial significa que você pode experimentar lucros. O desempenho passado, hipotético ou real, não diminui o potencial de risco de qualquer estratégia. O problema de simplesmente ignorar as isenções de risco e não levá-las a sério é que isso faz com que os negociadores tomem decisões que de outra forma não tomariam. Especificamente, encobrir uma declaração de risco pode levar à decisão de negociar uma estratégia que, de outra forma, você decidiria contra a negociação se tivesse levado a sério os riscos associados a essa estratégia. Isso também faz com que os negociadores parem com as estratégias de negociação muito antes que eles parem de negociá-los, porque eles não levaram a declaração de risco a sério.
Entender o risco é mais importante para o sucesso global da negociação do que você imagina. Na verdade, sua compreensão do risco (ou falta de compreensão) afeta virtualmente todas as decisões comerciais que você faz dos mercados ao comércio, tamanho da conta para começar, tamanho do comércio inicial, níveis nos quais você aumenta ou diminui o tamanho do comércio e, claro , por quanto tempo ficar comprometido com uma estratégia. É em seu detrimento ignorar isso e qualquer outra declaração de risco associada à negociação. Every strategy associated with Options for Profits carries risk. Em todos os casos, você decide se o "potencial de lucro" vale o "potencial de risco".

Комментарии

Популярные сообщения из этого блога

Forex café eeuu

Binêre opsies seine Ulundi. Sexta-feira, 15 de setembro de 2017. Ino Com Kafee Forex Eeuu. Forex Spot Forex & # 183; Kruis Tariewe. Futuros Todos os Futuros & # 183; Oop Futures & # 183; simbool Lys & # 183; Geld & # 183; Energie & # 183; voedsel en vesel & # 183; graan en oliesade & # 183; Indekse & # 183; Rente acceso Directo grafico Gratuito de cotizações de vivo para Café C EE. UU Alle CFD's (aeele, indekse, futures) en Forex pryse is nie deur Obtenga Ter inligting detallada del Café C EE. UU incluyendo gráficos, Análisis Tecnico, datos históricos y más. ino kafee forex. ee. uu, estratégia binêre opsie 597, leer binêre opsies vry, grátis forex CAF, forex euro dolar grafico. Voorraadkwotasies & # 183; Futuros Kwotasies & # 183; Aanhalings Forex & # 183; Cotações do ETF & # 183; Nuus & mentêre. MY BARCHART Futures en Forex: 10 minutos de atraso, CST. marcar dados Indeks Futures & # 183; Rentekoers & # 183; Futuros do...

Melhor empresa de opção binária

Top 10 Binary Options Brokers: Lista dos melhores sites de corretores de negociação. Abaixo você encontrará uma lista dos 10 principais sites de corretores de opções binárias, para garantir que você encontre um que atenda às suas necessidades exatas, você encontrará listados seus mercados disponíveis, limites mínimos e máximos de negociação, além dos valores mínimos de depósito em cada site. . Também obtivemos análises detalhadas sobre vários de nossos corretores de opções binárias, então, por favor, dê uma boa olhada em nosso site. Você quer aprender como negociar opções binárias, ou procurando descobrir como funciona a negociação de opções binárias. Em seguida, siga o link acima para encontrar as respostas para as perguntas que você pode ter. Corretores de Opções Binárias e Plataformas # 8211; Comentários e Comparação. Comparamos as melhores corretoras e plataformas de opções binárias regulamentadas de 2018 e criamos essa lista de topo. Cada corretor e plataforma foi pessoalmente rev...

Ea s3 forex

Melhor Forex EA & S e indicadores. Melhor Forex EA & S e indicadores. Explore e faça o download de nossos Melhores EAs e Indicadores Forex para a plataforma de negociação MetaTrader 4. Experimente uma nova forma inovadora de negociar com os robôs Forex EA. Escolha e faça o download do forex EA de vários EA's lucrativos que oferecemos. O nosso site oferece tanto Forex EA's e Indicadores juntos para que todos os tipos de investidores possam encontrar algo que se encaixa melhor em seu estilo de negociação! Gostaríamos de compartilhar nossa experiência de codificação com todas as pessoas que não podem codificar, mas interessadas em negociação automática e gostariam de obter software profissional. Iremos fornecer-lhe os nossos robôs de negociação de software automáticos forex EA como uma grande oportunidade de ganhar dinheiro nos mercados Forex de uma forma inovadora e automatizada! Nossos produtos não são copiados de qualquer outro desenvolvedor ou site. Temos mais de 6 ano...