Thursday 28 December 2017

Systemy optymalizacji handlu i portfeli


Optymalizacja systemów obrotu i portfeli. Kompozycje Cytaty 32.Referencje Referencje 5. Badania z zakresu badań skoncentrowały się na systemach obrotu lub metodach budowy portfela lub systemach wielozadaniowych Smeureanu i wsp. 2017 osobno Niektóre zoptymalizowały portfele systemów handlowych Moodyand, Lizhong 1997, Dempster, Jones 2001, ale bardzo niewiele zajęło się problemami optymalizacji portfela handlowego na wielką skalę Perold 1984 Systemy wielozadaniowe są rzadko używane w handlu, chociaż okazjonalne przykłady można znaleźć w Arajo, de Castro 2017. Pokaż streszczenie Ukryj streszczenie ABSTRACT Aby zrozumieć, w skali makro, analizujemy problemy związane z gospodarką zrównoważoną, dzieląc duże zadania na mniejsze i oferujemy podejście oparte na podejściu opartym na podejściu opartym na podejściu opartym na podejściu opartym na podejściu opartym na kodzie źródłowym Teoretyczne uzasadnienie naszego rozwiązania opiera się na wielowymiarowej analizie statystycznej wielowymiarowych zadań inwestycyjnych, w szczególności na relacjach między danymi rozmiar, złożoność algorytmu i portfel eff W celu zredukowania problemu rozmiaru próbki wymiarowej, większe zadanie podzielone jest na mniejsze części za pomocą grupowania podobieństw podobnych problemów do mniejszych grup, aby rozwiązać grupy, jednakże różnią się w wielu aspektach Pseudo grupy losowo tworzone tworzą dużą liczbę modułów systemów podejmowania decyzji związanych z paszami Mechanizm ewolucyjny tworzy kolekcje najlepszych modułów dla każdego pojedynczego krótkiego okresu czasu Rozwiązania końcowe są przenoszone do globalnej skali, w której zbiór najlepszych modułów wybierany jest przy użyciu wieloskładnikowego wrażliwego na koszty perceptronu Zbierane moduły są połączone w ostatecznym rozwiązaniu w równie ważonym podejściu 1 N Portfolio Skuteczność nowego podejścia do podejmowania decyzji została zademonstrowana poprzez problem optymalizacji portfela finansowego, który dał wystarczające ilości rzeczywistych danych W przypadku budowy portfela wykorzystaliśmy 11.730 symulacji roboty związane z robotami handlowymi Zestawienie danych obejmowało okres od 2003 do 2017 r., jeśli chodzi o ochronę środowiska zmiany były częste i w znacznym stopniu nieprzewidywalne. Wdrażanie walk-forward i próby poza próbą pokazują, że podejście oparte na zasadach zrównoważonego rozwoju jest lepsze niż metody porównawcze, a krótsza historia szkolenia agentów wykazuje lepsze wyniki w okresach zmieniającego się środowiska..Raudys Aistis Raudys Pabarkait. L Xu, 2003 Optymalizacja portfeli finansowych z punktu widzenia górniczych struktur czasowych zwrotu z kapitału, w P Perner i A Rosenfeld, eds Learning Machine i wyszukiwanie danych w rozpoznawaniu wzorców - MLDM 2003, str. 266-275, LNAI 2734, Springer Verlag Podobnie jak inne podstawowe problemy w analizie finansowej, optymalny problem wyboru portfela był odporny na napaść naukowców z dyscyplin sztucznych sieci neuronowych i uczenia maszyn3456 Zastosowanie podejścia do sieci neuronowych wymaga optymalnych parametrów, które można adaptować w czasie. Ukryj streszczenie ABSTRAKCJONISTA Streszczenie W niniejszym artykule zmierzamy do wprowadzenia sposobu, w jaki jedna z niedawno opracowanych statycznych technik uczenia się, analiza czynników czasowych TFA, która pierwotnie była poświęcona dalszym badaniom teorii wyceny arbitrażu APT, mogłaby zostać wykorzystana w finansach wydobycie danych w celu określenia ciężaru w problemie optymalizacji portfela Ponadto badamy kilka wariantów techniki maksymalizacji Sharpe'a opartej na APT, która wykorzystuje pojęcia ryzyka spadku portfela i upośledzenia pozycji upside - dostosowanej do potrzeb ryzykownych i agresywnych zysków - poszukiwanie inwestorów. Filmatyczny dokument konferencyjny z lipca 2003.Kai Chun Chiu Lei Xu. Zawartość regresji liniowej czasu trzymania do wskaźnika MS na wszystkich rynkach wykazała współczynnik korelacji - 48 Jest to zgodne z wynikami 1 i 4 że szkolenia RRL dostosowują handlowców do wyższych kosztów transakcji poprzez zmniejszenie częstotliwości handlu W przypadku transakcji FX kurs niższego MS oznacza że spread jest stosunkowo wyŜszymi kosztami transakcji i naleŜy oczekiwać zmniejszenia częstotliwości handlu. Ukryj streszczenie Abstrakt Badanie dotyczy transakcji walutowych o wysokiej częstotliwości z sieciami nerwowymi przeszkolonymi przez powtarzające się zbieranie zbrojenia RRL Porównujemy wydajność sieci jednoprzewodowych z sieciami mając ukrytą warstwę i badamy wpływ stałych parametrów systemu na wydajność Ogólnie rzecz biorąc, że systemy handlowe są skuteczne, ale wydajność różni się znacznie na różnych rynkach walutowych, a ta zmienność nie może być wyjaśniona przez proste statystyki rynków Również okazuje się, że w tej aplikacji jedyną warstwą sieci jest lepsza niż w przypadku tej sieci. 2003 Założenie metod optymalizowania portfeli, alokacji aktywów i systemów obrotu opartych na bezpośrednim zbrojeniu DR W tym podejściu podejmowanie decyzji inwestycyjnych jest postrzegane jako problem stochastycznego sterowania, a strategie są odkrywane bezpośrednio Prezentujemy reklamę algorytm aptive zwany regularnym r. Przedstawiamy metody optymalizacji portfeli, alokacji aktywów i systemów transakcyjnych opartych na bezpośrednim zbrojeniu DR W tym podejściu podejmowanie decyzji inwestycyjnych jest postrzegane jako problem stochastycznego sterowania, a strategie są odkrywane bezpośrednio Przedstawiamy algorytm adaptacyjny zwany powtarzające się uczenie RRL w poszukiwaniu polityki inwestycyjnej Potrzeba budowy modeli prognozowania jest eliminowana i uzyskuje się lepsze wyniki handlowe Podejście do bezpośredniego zbrojenia różni się od dynamicznych algorytmów programowania i wzmacniania, takich jak TD-learning i Q-learning, które próbują oszacować wartość funkcja dla problemu z kontrolą Możemy stwierdzić, że ramka zbrojenia bezpośredniego RRL umożliwia prostsze przedstawienie problemu, pozwala uniknąć przekleństwa wymiarów Bellmana i oferuje znaczące korzyści w zakresie efektywności. Wykazujemy, jak można wykorzystać bezpośrednie wzmocnienie w celu optymalizacji zwrotów z inwestycji dostosowanych do ryzyka, arpe, przy uwzględnieniu wpływu kosztów transakcji W obszernych pracach symulacyjnych przy użyciu rzeczywistych danych finansowych dowiadujemy się, że nasze podejście oparte na RRL generuje lepsze strategie handlowe niż systemy wykorzystujące Q-Learning metodę wartościowania. Aplikacje w rzeczywistym świecie obejmują wewnętrzne, dziennik waluty i miesięczny system alokacji aktywów w indeksie S ampP 500 i T-Bills. by Blake Lebaron 1998. Niniejszy artykuł łączy techniki pochodzące z literatury dotyczącej algorytmów optymalizacji ewolucyjnej wraz z testami statystycznymi opartymi na bootstrapie Uruchomienie ładowania i walidacja krzyżowa jako ogólne ramy szacowania celów poza próbą poprzez redrawowanie podzbiorów z próbki szkoleniowej Evolu. Ten artykuł łączy techniki pochodzące z literatury dotyczącej algorytmów optymalizacji ewolucyjnej wraz z testami statystycznymi opartymi na bootstrapie Bootstrapping i cross validation są wykorzystywane jako ogólne ramy szacowania celów poza próbką przez redrawowanie podzbiorów z tr Eining Evolution jest wykorzystywana do przeszukiwania dużej przestrzeni potencjalnych architektur sieciowych Połączenie tych dwóch metod tworzy metodę szacowania i selekcji sieci, która ma na celu znalezienie nieodpowiednich struktur sieciowych, które dobrze uogólniają Przykłady pochodzą z danych finansowych pokazujących, jak to porównać z bardziej tradycyjnymi metody wyboru modelu Metoda ładowania początkowego pozwala również na bardziej ogólne cele niż zwykłe najmniejsze kwadraty, ponieważ może oszacować przychylność próbki dla dowolnej funkcji Niektóre z nich zostaną porównane z tradycyjnymi szacunkami najmniejszych kwadratów w dynamicznych ustawieniach handlowych z seriami walut obcych 1 1. shirani 1994 3 Wczesne wyniki pokazują, że są skutecznym narzędziem w symulowanych prognozach czasowych przy użyciu danych Henona LeBaron 1997 4 Ostatnie prace Bengio 1997, Choey Weigend 1997, oraz - Moody Wu 1997- - są wyraźnie inspirujące tutaj Inne ostatnie przykłady przyglądające się znaczenie innych funkcji utraty można znaleźć w Granger Pesara n 1996 1 strategia w czasie t 1 bylaby strt 1, 1 where. by Amir F Atiya, Alexander G Parlos - IEEE TRANS NEURAL NETWORKS 2000. Jak efektywnie szkolić sieci powtarzane pozostaje wyzwaniem i aktywnym tematem badawczym Większość proponowanych metod szkoleniowych w oparciu o obliczeniowe sposoby skutecznego uzyskiwania gradientu funkcji błędów i można ogólnie pogrupować w pięciu głównych grupach W tym badaniu przedstawiamy, jak skutecznie prowadzić regularne sieci są nadal wyzwaniem i aktywnym tematem badawczym Większość proponowanych podejść szkoleniowych opiera się na obliczeniowych sposobach skutecznego uzyskania gradientu funkcji błędu i można ogólnie pogrupować w pięć głównych grup W tym badaniu przedstawiamy pochodną, ​​która ujednolica te podejścia Wykazujemy, że podejścia to tylko pięć różnych sposobów rozwiązania konkretnego równania macierzowego Drugim celem tego opracowania jest opracowanie nowego algorytmu opartego na spostrzeżeniach uzyskanych z nowej formuły Nowy algorytm m, oparta na przybliżeniu gradientu błędów, ma niższą złożoność obliczeniową obliczania wagi niż konkurencyjne techniki większości typowych problemów Ponadto osiąga minimum błędów w znacznie mniejszej liczbie powtórzeń. Pożądana cecha charakterystycznego powtarzającego się szkolenia sieciowego algorytmy mają możliwość uaktualnienia odważników w trybie on-line Opracowaliśmy również internetową wersję proponowanego algorytmu, opartą na aktualizacji aproksymacji gradientu błędów w sposób rekurencyjny. by Thomas Hellstrm, Kenneth Holmstrm 1999 W artykule tym opisano ASTA, sztuczny agent handlowy, w środowisku programistycznym Matlab Głównym celem projektu jest dostarczenie stabilnej i realistycznej stacji testowej dla opracowania algorytmów handlu wielostrefowego Działanie agenta jest kontrolowane przez na wysokim szczeblu langua. Ten artykuł opisuje ASTA, Sztuczny agent handlowy, w środowisku programowania Matlab Głównym celem t projekt ma dostarczyć stabilnej i realistycznej ławce testowej do opracowywania algorytmów handlu wielostronnego Działanie agenta jest kontrolowane przez język wysokiego poziomu, który jest łatwo rozszerzalny z funkcjami zdefiniowanymi przez użytkownika Reguły kupna i sprzedaży mogą być skomplikowane interaktywnie i różne typy przesiewania danych można łatwo wykonać, wszystko w składzie Matlaba m-file language Oprócz: Haizhon Li, Robert Kozma - Proceedings of the 2003 International Joint Conference on Neural Networks 2003. Streszczenie W niniejszym artykule, Wprowadza się dynamiczną sieć neuronową KIII i stosuje się ją do przewidywania skomplikowanych sekwencji czasowych W naszym podejściu KIII przewiduje krok po kroku prognozę kierunku zmiany kursu walutowego Wcześniej wiele multiplayer perceptron MLP net. Abstract W tym papier, wprowadza się dynamiczną sieć neuronową KIII i stosuje się ją do przewidywania skomplikowanych sekwencji czasowych W naszym podejściu KIII podaje krok po kroku przewidywania kierunek zmiany kursu walutowego Wcześniej wdrożono wiele multiplayerowych sieci percepcyjnych MLP i nawracających sieci neuronowych dla tej aplikacji Wyniki uzyskane przez KIII są korzystne dla innych metod I. z uwagi na wysoki poziom hałasu i niestacjonarny charakter dane, prognozowanie finansowe jest wymagającym zastosowaniem w domenie predykcyjnej serii czasowej W tej aplikacji wykorzystano różne metody - 4,5,6,7,9,10 - - w tej pracy wykorzystujemy model KIII do przewidywania kierunku jednokierunkowego dziennego kursu walutowego Wykorzystane dane pochodzą z 4 Wyniki eksperymentu pokazują zdolność klasyfikacji ksiąg KI. by Nicolas Chapados, Yoshua Bengio - transakcje IEEE w sieciach neuronowych 2000. Wprowadzamy ramy alokacji aktywów w oparciu o aktywną kontrolę wartość zagrożona portfelem W ramach tego porównujemy dwa paradygmaty dotyczące alokacji przy użyciu sieci neuronowych Pierwszy z nich korzysta z sieci, aby utworzyć ecast zachowań aktywów w połączeniu z a. Wprowadzamy ramy alokacji aktywów w oparciu o aktywną kontrolę wartości zagrożonych portfelem W ramach tego porównujemy dwa paradygmaty dotyczące alokacji przy użyciu sieci neuronowych Pierwszy wykorzystuje sieć do prognozowania zachowania aktywów, w połączeniu z tradycyjnym algorytmem średniej wariancji dla konstruowania portfela Drugi paradygmat używa sieci do bezpośredniego podejmowania decyzji przydziału portfela Uważamy, że metoda dokonywania delikatnego wyboru zmiennej wejściowej i jego znaczne narzędzie Używamy metod kombinacji komitetów komplementarnych do systematyzacji wyboru hiperbortyfikatorów podczas treningu Wykazujemy, że komisje wykorzystujące obie paradygmaty znacznie przewyższają wyniki benchmarku na rynku 1 Wstęp W aplikacjach finansowych idea kształcenia algorytmów uczenia się zgodnie z kryterium zainteresowania, jako kryterium zysku, a nie ogólne kryterium predykcyjne, ma gai odsetek w ostatnich latach I. Kryterium, zyskał w ostatnich latach zainteresowanie W ramach zadań alokacji aktywów zastosowano tę metodę do szkolenia sieci neuronowych, aby bezpośrednio zwiększyć współczynnik Sharpe Ratio lub inne skorygowane o ryzyko czynniki - 1,3,10 - - Jednym z takich miar ryzyka, które ostatnio uzyskały znaczną uwagę, jest wartość VaR wartości zagrożonej portfelem, która określa maksymalną kwotę mierzoną np. Portfelami: John Moody, Yufeng Liu, Matthew Saffell, Kyoungju Youn - In Proceedings Sztucznych Materiałów Multimedialnych z 2004 AAAI Symposium Spadek w 2004 r. Zbadamy powtórzone gry macierzyste z graczami stochastycznymi jako mikrokosmosem w celu zbadania dynamicznych interakcji wielu agentów za pomocą algorytmu gradientu politycznego Stochastic Direct Reinforcement SDR SDR jest uogólnieniem Utrwalonego Wzorcowania RRL który wspiera strategie stochastyczne U. Badamy powtarzane gry macierzyste ze stochastycznymi graczami jako mikrokosmos dla studiowania dynamicznego, wielozadaniowego inte racje przy uŜyciu algorytmu gradientu strategicznego Stochastic Direct Reinforcement SDR SDR jest uogólnieniem RRL ciągłego ulepszania zbrojenia, które obsługuje strategie stochastyczne W przeciwieństwie do innych algorytmów RL, SDR i RRL stosują powtarzające się gradienty polityk w celu prawidłowego przyporządkowania kredytów czasowych wynikających z powtarzającej się struktury. papier to 1 odróżniać powtarzającą się pamięć od standardowej, nietrwałą pamięć dla gradientu politycznego RL, 2 porównaj SDR z metodami uczenia się typu Q dla prostych gier, 3 odróżniać reakcję od endogennego zachowania się agenta dynamicznego i 4 zbadać użycie powtarzającego się uczenia się do interakcji , dynamicznych agentów Odkrywamy, że gracze SDR uczą się znacznie szybciej, a tym samym lepsi od niedawno proponowanych uczniów typu Q w prostych grach Rock, Paper, Scissors RPS Z bardziej złożonymi, dynamicznymi graczami SDR i przeciwnikami demonstrujemy, że powtarzające się przedstawienia i SDR s nawracające gradienty polityki zapewniają lepszą wydajność niż niepowtarzające się gracze Iterated Dilemma więźniów pokazujemy, że nie-powtarzające się czynniki SDR uczą się tylko uchybienia równowagi Nasha, podczas gdy agenci SDR z powtarzającymi się gradami mogą nauczyć się różnych ciekawych zachowań, w tym współpracy z ulepszeniem umiejętności, Q-Learning nie może być łatwo skalowany do obszary dużego państwa lub działania, które często występują w praktyce Podejście do metody zbrojenia bezpośredniego i postępowanie polityczne Williams 1992 - Moody Wu 1997 - Moody i wsp. 1998 Baxter Bartlett 2001 Ng Jordan 2000 przedstawiają politykę wyraźnie i nie wymagają uczenia się wartości Metody gradientu politycznego mają na celu poprawę polityki przez John Moody, Matthew Saffell - w KDD w 1998 r. Proponujemy szkolenie systemów handlowych poprzez optymalizację funkcji celów finansowych poprzez uczenie się zbrojenia Funkcje wydajności, które uważamy za funkcje wartościowe to zysk lub bogactwo , współczynnik Sharpe'a i nasz niedawno zaproponowany współczynnik różnicowania Sharpe'a do nauki on-line W Moody W. Proponujemy szkolenie systemów handlowych przez op dopasowanie funkcji finansowych do celu poprzez uczenie się zbrojenia Funkcje wydajności, które uważamy za funkcje wartościowe to zysk lub bogactwo, wskaźnik Sharpe'a i nasz niedawno zaproponowany różny wskaźnik Sharpe'u dla nauki on-line W programie Moody amp Wu 1997 przedstawiliśmy wyniki empiryczne w kontrolowanych eksperymenty, które demonstrują zalety wzmocnienia uczenia się relatywnie do uczenia się nadzorowanego Tutaj rozszerzamy naszą przedwczesną pracę w celu porównania Q-Learningu z techniką uczenia się opartą na wzmocnieniu opartej na realnym czasie rzeczywistym RTRL, które zmaksymalizuje natychmiastową nagrodę Nasza symulacja rezultaty obejmują spektakularną demonstrację obecności przewidywalności w tym miesiącu. N Towers, AN Burgess - Finanse obliczeniowe Postępowanie szóstej międzynarodowej konferencji w sprawie finansów obliczeniowych 1999 r. W tym artykule wprowadzono strategie handlowe dla modeli prognoz cen aktywów, sparametryzowane zasady podejmowania decyzji Opracowujemy syntetyczne środowisko handlowe do zbadania względne efekty pod względem rentowności modyfikowania modelu prognozowania i zasady podejmowania decyzji Wykażemy temu impet W tym artykule wdrożyliśmy strategie handlowe dla modeli prognoz cen aktywów przy użyciu sparametryzowanych zasad decyzji Opracowujemy syntetyczne środowisko handlowe w celu zbadania względnych efektów , pod względem rentowności, modyfikacji modelu prognozowania i zasady podejmowania decyzji Wykażemy, że wdrożenie reguły handlowej może być równie ważne dla wyników handlowych jak przewidywana zdolność modelu prognozowania. Stosujemy te techniki do przykładu generowanego modelu prognozowania z cytatystycznego błędnego obliczania sumy wskaźników kapitału własnego Wyniki wskazują, że optymalizacja reguł decyzyjnych może znacząco poprawić wyniki handlowe, a roczne wskaźniki Sharpe Ratio wzrosną o współczynnik dwa powyżej zasady nawy na rynku. Aby osiągnąć ten poziom wzrost wydajności poprzez sam model prognozowania wymagałby 50 imp rovement z dokładnością przewidywania 1 Wstęp W ciągu ostatnich kilku lat poświęcono znaczną ilość badań nad modelem prognozowania, a następnie fazą decyzyjną, która przekształca prognozowane informacje w działanie, które w tym przypadku zmienia obroty pozycja Jako alternatywa, Moody in - 3 - - i Choey Weigend w 4, są przykładami metodologii łączących te dwa etapy w jedną. Te strategie handlowe wykorzystują jeden model do wspólnego optymalizacji w stosunku do prognozowania. Thomas Hellstrm 1998. W niniejszym artykule opisano zasady i implementację ASTA, sztucznego agenta zajmującego się handlem czasami, napisanego w języku Matlab. Głównym celem projektu jest zapewnienie łatwego w obsłudze środowiska do opracowywania algorytmów handlu wieloma papierami. zasady i wdrożenie ASTA, sztucznego agenta ds. obrotu giełdowego napisanego w języku Matlab Głównym celem projektu jest dostarczenie łatwe w obsłudze środowisko do opracowywania algorytmów handlu wieloma akcjami. N Towers, AN Burgess 1998. W kontekście dynamicznej strategii handlowej ostatecznym celem jakiegokolwiek modelu prognozowania jest wybór działań, które powodują optymalizację cel handlu Celem pracy jest opracowanie metodologii optymalizowania obiektywnej funkcji przy użyciu parametryzowanej reguły decyzyjnej. W kontekście dynamicznej strategii handlowej ostatecznym celem jakiegokolwiek modelu prognozowania jest wybór działań, które powodują optymalizację Celu handlowego W niniejszym artykule opracowujemy metodologię optymalizowania obiektywnej funkcji przy użyciu parametryzowanej reguły decyzyjnej dla danego modelu prognozowania. Symulujemy spodziewane wyniki handlowe dla różnych parametrów decyzyjnych i poziomów dokładności przewidywania. Następnie stosujemy technikę do model prognozowania błędów w grupie wskaźników kapitałowych Wykażemy, że optymalizacja proponowanej reguły decyzyjnej może zwiększyć a nnualised Sharpe Ratio o współczynnik 1 7 nad naiwną regułą decyzyjną. Kai Chun Chiu, Lei Xu - w JR Dorronsoro Ed Sztuczne sieci neuronowe - ICANN 2002, LNCS 2415 2002. Streszczenie Adaptacyjne zarządzanie portfelem zostało przeanalizowane w literaturze neuronowych sieci i uczenia maszyn Ostatnio opracowany model TFA z analizą czynników czasowych skoncentrowany głównie na dalszym badaniu teorii wyceny arbiterów APT wykazuje potencjalne zastosowania w portfelu człowieka. Streszczenie Adaptacyjne zarządzanie portfelem zostało przeanalizowane w literaturze sieci neuronowych i maszynowej niedawno opracowany model TFA w analizie czynników czasowych skoncentrowany głównie na dalszym badaniu teorii wyceny arbiterów APT wykazuje potencjalne zastosowania w zarządzaniu portfelem W niniejszym artykule zmierzamy do zilustrowania przewagi zarządzania portfelami opartymi na APT w oparciu o zarządzanie portfelem zwrotnym 1 tradycyjną teorię portfela Markowitza 8 w kontekście sztucznych sieci neuronowych W literaturze , adaptacyjne zarządzanie portfelem poprzez zmaksymalizowanie dobrze znanego współczynnika Sharpe'a 4 zostało zbadane w - 1, 2 - - Jednak takie podejście traktuje wagi jako stałych lub zależy bezpośrednio od zwrotu bezpieczeństwa Niedawno, nowa technika zwana TFA współczynnika skurczowego zaproponowany przez 5 z.

No comments:

Post a Comment