Friday 25 August 2017

Otimização de sistemas de negociação e carteiras


Otimização de sistemas de negociação e portfólios. Citações Citações 32.Referências Referências 5. Estudos pesquisa tendem a se concentrar nos sistemas de negociação ou métodos de construção de carteira ou sistemas multi-agente Smeureanu et al 2012 separadamente Alguns têm otimizado trading carteiras sistema Moodyand, Lizhong 1997, Dempster, Jones 2001, mas muito poucos têm abordado problemas de otimização de carteira em larga escala do sistema de negociação Perold 1984 Sistemas multi-agente raramente são usados ​​na negociação, embora exemplos ocasionais podem ser encontrados Arajo, de Castro 2011. RESUMO Para entender a grande - A justificativa teórica para a nossa solução baseia-se na análise estatística multivariada de tarefas de investimento multidimensional, particularmente nas relações entre os dados Tamanho, complexidade do algoritmo e eff do portfólio Para reduzir o problema do tamanho da amostra de dimensionalidade, uma tarefa maior é dividida em partes menores por meio de agrupamento de similaridade de itens Problemas semelhantes são dados a grupos menores para resolver Grupos, no entanto, variam em muitos aspectos Os grupos pseudo-formados aleatoriamente compõem um grande número De módulos de sistemas de tomada de decisão feed-forward O mecanismo de evolução forma coleções dos melhores módulos para cada curto período de tempo As soluções finais são levadas adiante para a escala global onde uma coleção dos melhores módulos é escolhida usando um perceptron multiclass sensível ao custo A eficácia da nova abordagem de tomada de decisão foi demonstrada através de um problema de otimização da carteira financeira, que forneceu quantidades adequadas de dados do mundo real. Para a construção da carteira, foram utilizados 11.730 simulações Desempenho do robô de negociação O conjunto de dados abrangeu o período de 2003 a 2012, As mudanças eram freqüentes e em grande parte imprevisíveis Experiências de "walk-forward" e "fora da amostra" mostram que uma abordagem baseada em princípios de economia sustentável supera os métodos de referência e que a história de treinamento de agentes mais curta demonstra melhores resultados em períodos de mudança. Otimização de carteiras financeiras na perspectiva de mineração de estruturas temporais de retornos de ações, em P Perner e A Rosenfeld, eds Aprendizado de Máquinas e Mineração de Dados em Reconhecimento de Padrões - MLDM 2003, pp 266-275, LNAI 2734, Springer Verlag Assim como outros problemas básicos na análise financeira, o problema de seleção de carteira ótima foi resiliente à investida de pesquisadores das disciplinas de redes neurais artificiais e aprendizado de máquinas3456. A utilização da abordagem de redes neurais requer parâmetros ótimos para serem aprendidos adaptativamente ao longo do tempo. Neste artigo, pretendemos apresentar como uma das técnicas de aprendizado estatístico recentemente desenvolvidas, a análise de fator temporal TFA, originalmente dedicada a um estudo mais aprofundado da teoria de preços de arbitragem APT, poderia ser explorada em instituições financeiras Além disso, estudamos várias variantes da técnica de maximização da proporção de Sharpe baseada em APT, que utilizam os conceitos de risco de baixa de carteira e volatilidade de retorno adaptados - feitos para a necessidade de aversão ao risco, bem como para o lucro agressivo - procurando investors. Full-texto Conference Paper Jul 2003.Kai Chun Chiu Lei Xu. Linear regressão do tempo de detenção para o MS razão em todos os mercados deu uma correlação co-eficiente de - 48 Isso é consistente com os resultados em 1 e 4 Que mostrou que o treinamento de RRL adapta comerciantes a um custo de transação mais elevado reduzindo a freqüência negociando No caso de negociar de FX uma relação de MS mais baixa significa S que o spread é um custo de transação equivalente relativamente maior e devemos esperar que a freqüência de comércio seja reduzida. RESUMO Este estudo investiga o comércio de moeda de alta freqüência com redes neurais treinadas através de aprendizagem de reforço recorrente RRL Comparamos o desempenho de redes de camada única com redes com uma camada oculta e examinamos o impacto dos parâmetros do sistema fixo sobre o desempenho Em geral, Concluir que os sistemas de negociação podem ser eficazes, mas o desempenho varia muito para diferentes mercados de moeda e esta variabilidade não pode ser explicado por estatísticas simples dos mercados Também vemos que a rede de camada única supera a rede de duas camadas neste aplicativo. Apresentamos métodos para otimizar carteiras, alocações de ativos e sistemas de negociação baseados em reforço direto. Nessa abordagem, a tomada de decisões de investimento é vista como um problema de controle estocástico e Estratégias são descobertas diretamente Apresentamos um anúncio Algoritmo aptive chamado r recorrente. Apresentamos métodos para otimizar carteiras, alocações de ativos e sistemas de negociação baseados em reforço direto DR Nesta abordagem, tomada de decisão de investimento é visto como um problema de controle estocástico e estratégias são descobertos diretamente Apresentamos um algoritmo adaptativo chamado Reforço contínuo de aprendizagem RRL para a descoberta de políticas de investimento A necessidade de construir modelos de previsão é eliminada e melhor desempenho comercial é obtido A abordagem de reforço direto difere da programação dinâmica e algoritmos de reforço como TD-learning e Q-learning que tentam estimar um valor Para o problema de controle Encontramos que a estrutura de reforço direto RRL permite uma representação de problema mais simples, evita Bellman aposs maldição de dimensionalidade e oferece vantagens convincentes em eficiência Mostramos como reforço direto pode ser usado para otimizar o risco ajustado retornos de investimento, incluindo o diferencial Sh Arpe ratio, enquanto a contabilidade para os efeitos dos custos de transação Em trabalhos de simulação extensa usando dados financeiros reais, descobrimos que a nossa abordagem baseada em RRL produz melhores estratégias de negociação do que sistemas utilizando Q-Learning um método de função de valor aplicações do mundo real incluem um intra - Comerciante de moeda diária e um sistema mensal de alocação de ativos para o Índice de Ações S ampP 500 e T-Blills. Por Blake Lebaron 1998. Este artigo combina técnicas extraídas da literatura sobre algoritmos de otimização evolutiva juntamente com testes estatísticos bootstrap baseados Bootstrapping e validação cruzada são usados Como um quadro geral para estimar objetivos fora da amostra, redesenhando subconjuntos de uma amostra de treinamento Evolu. Este artigo combina técnicas extraídas da literatura sobre algoritmos de otimização evolutiva, juntamente com bootstrap baseado em testes estatísticos Bootstrapping e validação cruzada são usados ​​como um quadro geral para estimar os objetivos Da amostra, redesenhando subconjuntos de um A combinação destes dois métodos cria um procedimento de estimação e estimativa de rede que visa encontrar estruturas de rede parcimoniosas que generalizam bem exemplos são dados a partir de dados financeiros mostrando como isso se compara a mais tradicional Métodos de seleção de modelos A metodologia de bootstrap também permite funções objetivo mais gerais do que os mínimos quadrados usuais, uma vez que pode estimar o viés de amostra para qualquer função. Algumas destas serão comparadas com estimativas baseadas em mínimos quadrados tradicionais em configurações dinâmicas de negociação com a série de câmbio 1 1. Shirani 1994 3 Os primeiros resultados mostram que eles são uma ferramenta eficaz em simulações de séries temporais utilizando dados de Henon LeBaron 1997 4 Os recentes artigos de Bengio 1997, Choey Weigend 1997 e - Moody Wu 1997- - são claramente inspiradores aqui. A importância de outras funções de perda pode ser encontrada em Granger Pesara N 1996 Ia estratégia no tempo t 1 seriam strt 1, 1 onde Amir F Atiya, Alexander G. Parlos - IEEE TRANS NEURAL NETWORKS 2000. Como treinar eficientemente redes recorrentes continua a ser um tópico de pesquisa desafiador e ativo A maioria das abordagens de treinamento propostas Baseado em formas computacionais para obter eficientemente o gradiente da função de erro, e pode ser geralmente agrupados em cinco grandes grupos Neste estudo nós presen. How para treinar eficientemente redes recorrentes continua a ser um tópico de pesquisa desafiador e activo A maioria das abordagens de formação propostas são baseadas Em métodos computacionais para obter eficientemente o gradiente da função de erro, e pode ser geralmente agrupados em cinco grandes grupos. Neste estudo, apresentamos uma derivação que unifica essas abordagens. Demonstramos que as abordagens são apenas cinco maneiras diferentes de resolver uma matriz particular equação The O segundo objetivo deste trabalho é desenvolver um novo algoritmo baseado nos insights adquiridos a partir da formulação romance O novo algoritmo M, que é baseado na aproximação do gradiente de erro, tem menor complexidade computacional na computação da atualização de peso do que as técnicas concorrentes para a maioria dos problemas típicos Além disso, ele atinge o mínimo de erro em um número muito menor de iterações Uma característica desejável de formação de rede recorrente Algoritmos é ser capaz de atualizar os pesos em uma linha de moda Também desenvolvemos uma versão on-line do algoritmo proposto, que se baseia na atualização da aproximação gradiente de erro de uma forma recursiva. by Thomas Hellstrm, Kenneth Holmstrm 1999 O objetivo principal do projeto é fornecer um banco de teste estável e realista para o desenvolvimento de algoritmos de negociação multi-estoque O comportamento do agente é controlado por um Linguagem de alto nível. Este artigo descreve ASTA, um Artificial Stock Trading Agent, no ambiente de programação Matlab O objetivo principal de t O projeto é fornecer um banco de teste estável e realista para o desenvolvimento de algoritmos de negociação multi-estoque O comportamento do agente é controlado por uma linguagem de alto nível, que é facilmente extensível com funções definidas pelo usuário As regras de compra e venda podem ser Composta interativamente e vários tipos de rastreio de dados podem ser facilmente realizados, todos dentro da sintaxe de linguagem m-file do Matlab Além disso, Haizhon Li, Robert Kozma - Actas da Conferência Internacional Conjunta de 2003 sobre Redes Neurais 2003. Resumo A rede neuronal dinâmica de KIII é introduzida e é aplicada à predição de seqüências temporais complexas Em nossa aproximação, KIII dá uma predição passo a passo da direção da mudança da taxa de câmbio Anteriormente, vários multiponto perceptron MLP net. Abstract Neste Papel, a rede neural dinâmica de KIII é introduzida e é aplicada à predição de seqüências temporais complexas. Em nossa abordagem, KIII dá uma previsão passo a passo de A direção da variação da taxa de câmbio Anteriormente, várias redes multiponto de perceptron MLP e redes neuronais recorrentes foram implementadas com sucesso para esta aplicação. Os resultados obtidos por KIII comparam favoravelmente com outros métodos, devido ao alto nível de ruído e à natureza não-estacionária de Os dados, a previsão financeira é uma aplicação desafiadora no domínio da previsão de séries temporais Vários métodos são utilizados nesta aplicação - 4,5,6,7,9,10 - - Neste trabalho, usamos o modelo KIII para prever a direção de um passo Da taxa de câmbio diária de moeda Os dados que usamos são de 4 Os resultados dos experimentos mostram a capacidade de classificação do KI. by Nicolas Chapados, Yoshua Bengio - Transações IEEE em redes neurais 2000. Introduzimos um quadro de alocação de ativos baseado no controle ativo de O valor em risco da carteira Neste quadro, comparamos dois paradigmas para fazer a alocação usando redes neurais O primeiro usa a rede para fazer um para Ecast de comportamento de ativos, em conjunto com a. Nós introduzimos uma estrutura de alocação de ativos baseada no controle ativo do valor em risco da carteira Neste quadro, comparamos dois paradigmas para fazer a alocação usando redes neurais O primeiro Usa a rede para fazer uma previsão do comportamento do ativo, em conjunto com um alocador de média variância tradicional para a construção do portfólio O segundo paradigma usa a rede para fazer diretamente as decisões de alocação do portfólio Consideramos um método para realizar a seleção de variáveis ​​de soft input e mostram Sua utilidade considerável Utilizamos métodos de comitê de combinação de modelos para sistematizar a escolha de hiperparâmetros durante o treinamento Mostramos que os comitês que usam ambos os paradigmas estão superando significativamente o desempenho do mercado de referência 1 Introdução Em aplicações financeiras, a idéia de treinar algoritmos de aprendizagem de acordo com o critério de interesse Como um lucro, em vez de um critério de previsão genérica, tem gai Em tarefas de alocação de ativos, isso tem sido aplicado ao treinamento de redes neurais para maximizar diretamente uma Relação de Sharpe ou outras medidas de lucro ajustadas ao risco - 1,3,10 - - Uma dessas medidas de risco, que tem recebido recentemente atenção considerável, é o VaR de valor em risco da carteira, que determina o montante máximo geralmente medido, por exemplo, em que a carteira de crédito é vendida. De Artificial Multiagent Learning Papers do 2004 AAAI Fall Symposium 2004. Nós investigamos jogos de matriz repetidos com jogadores estocásticos como um microcosmo para estudar dinâmico, interações multi-agente usando o Reforço Direto Estocástico SDR algoritmo de gradiente de política SDR é uma generalização de Aprendizagem de Reinício Recorrente RRL Que suporta políticas estocásticas U. We investigar jogos de matriz repetidos com jogadores estocásticos como um microcosmo para estudar dinâmico, inte multi-agente Ao contrário de outros algoritmos de RL, SDR e RRL utilizam gradientes de políticas recorrentes para endereçar corretamente a atribuição de crédito temporal resultante da estrutura recorrente. Nossos principais objetivos nessa estratégia Papel distinguem a memória recorrente da memória padrão não-recorrente para o gradiente de políticas RL, 2 comparam SDR com métodos de aprendizado de tipo Q para jogos simples, 3 distinguem comportamento reativo de comportamento dinâmico endógeno e 4 exploram o uso da aprendizagem recorrente para interação , Agentes dinâmicos Nós descobrimos que os jogadores de SDR aprendem muito mais rápido e, portanto, superam os alunos de Q-tipo recentemente propostos para o jogo simples Rock, Paper, Scissors RPS Com jogadores e adversários de SDR mais complexos e dinâmicos, demonstramos que as representações recorrentes e SDR s recorrentes Gradientes de políticas geram melhor desempenho do que os jogadores não-recorrentes. Iterated Prisoners Dilemma, mostramos que os agentes não-recorrentes SDR aprender apenas a defeito Nash equilíbrio, enquanto SDR agentes com gradientes recorrentes podem aprender uma variedade de comportamentos interessantes, incluindo a cooperação 1.ealing, Q-Learning não pode ser facilmente escalado para o Grandes estados ou espaços de ação que muitas vezes ocorrem na prática Reforço direto DR métodos gradiente de políticas e pesquisa de políticas Williams 2000 - Moody Wu 1997- - Moody et al 1998 Baxter Bartlett 2001 Ng Jordan 2000 representam políticas explicitamente e não exigem que uma função de valor seja aprendida Os métodos de gradiente de políticas procuram melhorar a política por meio de John Moody, Matthew Saffell - Em KDD 1998. Propomos treinar sistemas de negociação otimizando as funções objetivo fi nanceiras através da aprendizagem de reforço As funções de desempenho que consideramos como funções de valor são lucro ou riqueza , A relação de Sharpe e nossa proporção diferenciada recentemente proposta de Sharpe para a aprendizagem em linha Em Moody W. Propondo para treinar sistemas de troca por op As funções de desempenho que consideramos como funções de valor são o lucro ou a riqueza, a razão de Sharpe e nossa proporção diferencial de Sharpe recentemente proposta para a aprendizagem on-line Em Moody amp Wu 1997, apresentamos resultados empíricos em controladas Experimentos que demonstraram as vantagens do aprendizado de reforço relativo à aprendizagem supervisionada Aqui estendemos nosso trabalho anterior para comparar o Q-Learning a uma técnica de aprendizado de reforço baseada em RTRL de aprendizado recorrente em tempo real que maximiza a recompensa imediata Nossa simulação Os resultados incluem uma demonstração espetacular da presença de previsibilidade na revista mensal. Neste artigo, implementamos estratégias de negociação para modelos de previsão de preços de ativos usando Regras de decisão parametrizadas Desenvolvemos um ambiente de negociação sintética para investigar Os efeitos relativos, em termos de rentabilidade, da modificação do modelo de previsão e da regra de decisão Mostramos que imp. Neste artigo, implementamos estratégias de negociação para modelos de previsão de preços de ativos usando regras de decisão parametrizadas Desenvolvemos um ambiente de negociação sintética para investigar os efeitos relativos , Em termos de rentabilidade, de modificar o modelo de previsão ea regra de decisão Mostramos que a implementação da regra de negociação pode ser tão importante para o desempenho de negociação quanto a capacidade de previsão do modelo de previsão Aplicamos essas técnicas a um exemplo de um modelo de previsão gerado Os resultados indicam que a otimização das regras de decisão pode melhorar significativamente o desempenho da negociação, com a Taxa de Sharpe anualizada aumentando em até um fator de dois sobre uma regra de negociação de nave Para alcançar este nível de O aumento do desempenho através do modelo de previsão sozinho exigiria um 50 imp 1 Introdução Nos últimos anos, uma quantidade substancial de pesquisa foi dedicada ao modelo de previsão e, em segundo lugar, uma fase de decisão que converte as informações da previsão em uma ação que, neste caso, altera o comércio Como alternativa, Moody in - 3 - - e Choey Weigend em 4, são exemplos de metodologias que combinam estes dois estágios em um. Essas estratégias de negociação usam um único modelo para realizar uma otimização conjunta em relação à previsão. by Thomas Hellstrm 1998. Este artigo descreve os princípios por trás e a implementação do ASTA, um Artificial Stock Trading Agent escrito em A linguagem Matlab O principal objetivo do projeto é fornecer um ambiente fácil de usar para o desenvolvimento de algoritmos de negociação multi-estoque. Os princípios por trás ea implementação da ASTA, um Artificial Stock Trading Agent escrito em A linguagem Matlab O objetivo principal do projeto é fornecer Um ambiente fácil de usar para o desenvolvimento de algoritmos de negociação multi-estoque. by N Towers, AN Burgess 1998. No contexto de uma estratégia de negociação dinâmica, o objetivo final de qualquer modelo de previsão é escolher ações que resultem na otimização do Objetivo de negociação Neste trabalho desenvolvemos uma metodologia para otimizar uma função objetivo, usando uma regra de decisão parametrizada, para um give. In o contexto de uma estratégia de negociação dinâmica, o objetivo final de qualquer modelo de previsão é escolher as ações que resultam na otimização Do objetivo de negociação Neste trabalho desenvolvemos uma metodologia para otimizar uma função objetivo, usando uma regra de decisão parametrizada, para um determinado modelo de previsão Simular o desempenho esperado de negociação para diferentes parâmetros de decisão e níveis de precisão de previsão Aplicamos a técnica a um Modelo de previsão de preço incorreto dentro de um grupo de índices de ações. Mostramos que a otimização da regra de decisão proposta pode aumentar a a Por Kai Chun Chiu, Lei Xu - em JR Dorronsoro Ed Redes Neurais Artificiais - ICANN 2002, LNCS 2415 2002. Resumo O gerenciamento adaptativo de carteiras tem sido estudado na literatura de neural Redes e aprendizagem de máquina O recentemente desenvolvido Temporal Factor Analysis TFA modelo orientado principalmente para um estudo mais aprofundado da Arbitrage Pricing Theory APT é encontrado para ter aplicações potenciais no portfolio Man. Abstract Adaptive gestão de carteira tem sido estudada na literatura de redes neurais e máquina de aprendizagem The Recentemente desenvolvido Análise de Factores Temporais Modelo de TFA orientado principalmente para um estudo mais aprofundado da Teoria de Preços Arbitrage APT é encontrado para ter aplicações potenciais na gestão de carteiras Neste artigo, pretendemos ilustrar a superioridade do gerenciamento de carteira baseada em APT 1 A teoria tradicional da carteira de Markowitz 8 no contexto de redes neurais artificiais Na literatura , A gestão adaptativa da carteira através da maximização da bem conhecida relação de Sharpe 4 foi estudada em - 1, 2 - - No entanto, tais abordagens tratam os pesos como constantes ou dependem diretamente dos retornos de segurança Recentemente, uma nova técnica chamada Temporal Factor Analysis TFA foi Proposto por 5 com um.

No comments:

Post a Comment