(suspens insoutenable , c'est du super teasing là )
What is this thing ???
(suspens insoutenable , c'est du super teasing là )
(suspens insoutenable , c'est du super teasing là )
Quelques news pour vous faire sourire...
Comme je l'ai indiqué je ne suis plus dispo pour le codage pendant 15 jours. Mordre.
Alors hier soir j'ai voulu lancer mes herbivores dans les prairies pré-2012, histoire de valider ce que j'avais affirmé, à savoir qu'il ne devrait pas y avoir de souci.
Eh ben en fait, à peine lancé en janvier 2008, le premier herbivore s'est pris une pluie de météorite.
Je n'en croyais pas mes yeux, le compte exterminé en deux mois !
Je lance donc le deuxième herbivore, en me disant qu'il y a du avoir un bout de code écrasé par une malheureuse manipulation, mais idem !
Donc là, j'ai commencé à analyser le comportement du DINO dans ce nouvel environnement.
Je lui ai vite rajouté un filtre à particule pour supporter cette nouvelle atmosphère etc et je l'ai relancé sur 10 ans.
Résultat, de janvier 2008 à vendredi dernier, soit presque 10 ans, +266%.
Donc comme c'est du linéaire, 26,6% en moyenne par an.
Quand même satisfait que le tricératops ait survécu à ce changement d'ère, même si je dois encore trouver ces fameux carnassiers...
Comme je l'ai indiqué je ne suis plus dispo pour le codage pendant 15 jours. Mordre.
Alors hier soir j'ai voulu lancer mes herbivores dans les prairies pré-2012, histoire de valider ce que j'avais affirmé, à savoir qu'il ne devrait pas y avoir de souci.
Eh ben en fait, à peine lancé en janvier 2008, le premier herbivore s'est pris une pluie de météorite.
Je n'en croyais pas mes yeux, le compte exterminé en deux mois !
Je lance donc le deuxième herbivore, en me disant qu'il y a du avoir un bout de code écrasé par une malheureuse manipulation, mais idem !
Donc là, j'ai commencé à analyser le comportement du DINO dans ce nouvel environnement.
Je lui ai vite rajouté un filtre à particule pour supporter cette nouvelle atmosphère etc et je l'ai relancé sur 10 ans.
Résultat, de janvier 2008 à vendredi dernier, soit presque 10 ans, +266%.
Donc comme c'est du linéaire, 26,6% en moyenne par an.
Quand même satisfait que le tricératops ait survécu à ce changement d'ère, même si je dois encore trouver ces fameux carnassiers...
Je orécise, le souci provient de la volatilité, incomparablement plus élevée en 2008 que lors de ces dernières années, bien entendu sur toutes les ut.
Cette volatilité ne devrait plus revenir, en effet, c'est un "cadeau" trop beau pour les robots....
Cette volatilité ne devrait plus revenir, en effet, c'est un "cadeau" trop beau pour les robots....
Bonjour Swing
Très brièvement, regarde le signal en ut 1 min en 2008 et compare à 2017. En 2008 pour un robot c'était Byzance, un tel signal à mon sens ne peut revenir. En tout cas, je serais prêt et je ne devrais pas être le seul à me gaver
Toujours très occupé, je n'ai pas pu touché au robot ces derniers temps, seulement ce week-end entre d'autres occupations.
J'ai testé ce soir, après un dîner clients, un nouveau robot qui se voulait au départ carnivore, mais je lui trouve les dents cariées et mauvaise haleine
237,1% sur 4 ans entre janvier 2012 et déc 2015.
J'ai arrêté le test en cours de route car en visualisant les résultats j'ai vu quelques améliorations à apporter. Codées en vitesse, c'est en cours en ce moment même...
Très brièvement, regarde le signal en ut 1 min en 2008 et compare à 2017. En 2008 pour un robot c'était Byzance, un tel signal à mon sens ne peut revenir. En tout cas, je serais prêt et je ne devrais pas être le seul à me gaver
Toujours très occupé, je n'ai pas pu touché au robot ces derniers temps, seulement ce week-end entre d'autres occupations.
J'ai testé ce soir, après un dîner clients, un nouveau robot qui se voulait au départ carnivore, mais je lui trouve les dents cariées et mauvaise haleine
237,1% sur 4 ans entre janvier 2012 et déc 2015.
J'ai arrêté le test en cours de route car en visualisant les résultats j'ai vu quelques améliorations à apporter. Codées en vitesse, c'est en cours en ce moment même...
Le nouveau court plus vite. Il atteint le même résultat que son prédécesseur mais le 6 février 2014
Mon nouveau seuil de référence, 467,4% de janvier 2012 au 17 nov 2016; soit 78%/an.
Pour l'occasion, j'ai veillé...
Encore quelques efforts pour atteindre l'objectif symbolique de 600%.
Peut mieux faire
Pour l'occasion, j'ai veillé...
Encore quelques efforts pour atteindre l'objectif symbolique de 600%.
Peut mieux faire
Je repars à l'étranger demain. De nouveau pause robot, frustrant de travailler en pointillés
Tel qu'indiqué sur une autre file, j'ai décidé de réinvestir dans un portable (quadcore i7 kaby lake). Cela faisait quelques années que j'étais passé en tablette iPad et je m'étais séparé de mes ordis portables. Cela devrait me permettre de mieux progresser, en déplacement mais aussi grâce à la puissance de calcul accrue.
En effet, l'un des freins que je rencontre est encore la lenteur de mes backtests (mon pc de bureau actuel a environ 3/4 ans, c'était du haut de gamme de l'époque, révolue aujourd'hui) . J'avais amélioré ceci en changeant d'outil mais ce n'était pas suffisant, surtout lorsque l'algo doit turbiner en calculs, parfois à chaque tick.
Au final, ces lenteurs de backtests dans un contexte où les heures libres sont rares, me font perdre des semaines dans l'avancée de ce projet.
On verra si l'amélioration de l'environnement est significative... je croise les doigts
En effet, l'un des freins que je rencontre est encore la lenteur de mes backtests (mon pc de bureau actuel a environ 3/4 ans, c'était du haut de gamme de l'époque, révolue aujourd'hui) . J'avais amélioré ceci en changeant d'outil mais ce n'était pas suffisant, surtout lorsque l'algo doit turbiner en calculs, parfois à chaque tick.
Au final, ces lenteurs de backtests dans un contexte où les heures libres sont rares, me font perdre des semaines dans l'avancée de ce projet.
On verra si l'amélioration de l'environnement est significative... je croise les doigts
Et si les calculs prennent plusieurs ticks, c'est éventuellement un souci...
Dans mon cas, comme je l'ai écrit je ne suis pas à quelques centaines de ticks près pour la rentabilité globale, car si une fois un déphasage implique une perte de quelques fractions de points ou même points, son symétrique interviendra une autre fois.
En poursuivant le raisonnement on peut ainsi considérer qu'un algo a des limites temporelles d'expression assez larges et peut donc balancer des masses de calculs même sophistiqués et très gourmands. Il suffit d'échantillonner les ticks pour lui donner l'air requis.
ça marche...
Dans mon cas, comme je l'ai écrit je ne suis pas à quelques centaines de ticks près pour la rentabilité globale, car si une fois un déphasage implique une perte de quelques fractions de points ou même points, son symétrique interviendra une autre fois.
En poursuivant le raisonnement on peut ainsi considérer qu'un algo a des limites temporelles d'expression assez larges et peut donc balancer des masses de calculs même sophistiqués et très gourmands. Il suffit d'échantillonner les ticks pour lui donner l'air requis.
ça marche...
Je ne travaille pas en TP 1,2,3...
@Swing
J'ai conscience que ma réponse au sujet de la volatilité était à peine liminaire et je m'en excuse.
Je t'indique donc quelques liens web à explorer, matière à réflexion. Aux antipodes de mes quelques mots, ils sont extrêmement ardus et de surcroît principalement en anglais.
http://www.ifd.dauphine.fr/fileadmin/mediatheque/recherche_et_valo/FDD/Cahier_Chaire_2.pdf
chapitre 4 sur la volatilité
En français, les jeux à champ moyen ( plus complet que la version anglaise)
https://fr.wikipedia.org/wiki/Jeux_%C3%A0_champ_moyen
Et la partie la plus sympa à lire (ce qui précède devrait aider à mieux comprendre, enfin dans une certaine mesure... désolé)
L'entreprise fondée par Jean Michel Lasry et Pierre Louis Lions, deux grands mathématiciens français
https://mfglabs.com/vision/
Ensuite je te laisse déployer tes propres raisonnements...
J'ai conscience que ma réponse au sujet de la volatilité était à peine liminaire et je m'en excuse.
Je t'indique donc quelques liens web à explorer, matière à réflexion. Aux antipodes de mes quelques mots, ils sont extrêmement ardus et de surcroît principalement en anglais.
http://www.ifd.dauphine.fr/fileadmin/mediatheque/recherche_et_valo/FDD/Cahier_Chaire_2.pdf
chapitre 4 sur la volatilité
En français, les jeux à champ moyen ( plus complet que la version anglaise)
https://fr.wikipedia.org/wiki/Jeux_%C3%A0_champ_moyen
Et la partie la plus sympa à lire (ce qui précède devrait aider à mieux comprendre, enfin dans une certaine mesure... désolé)
L'entreprise fondée par Jean Michel Lasry et Pierre Louis Lions, deux grands mathématiciens français
https://mfglabs.com/vision/
Ensuite je te laisse déployer tes propres raisonnements...
Ce soir j'ai plaisir à vous présenter le coelophysis, un petit dinosaure carnivore qui a vécu lors du trias supérieur, il y a environ 225 millions d'années (Pour mémoire notre aïeul homo sapiens a débarqué sur terre il y a 0,31 millions d'années).
Coelophysis est une forme de dinosaure Théropode primitive. Il était fin et agile. Son nom, « forme creuse », signifie que ses os étaient creux, ce qui servait à l’alléger et à le bâtir pour la course. Sa taille pouvait atteindre 3 mètres de long pour un poids d'environ 15 à 30 kilos.
Il se contentait de poissons et d’insectes. Ses dents étaient acérées, fortement recourbées et crénelées.
Presque un petit animal domestique, quoiqu'un peu encombrant en habitat urbain, surtout parisien.
Voyez comme il est charmant
Coelophysis est une forme de dinosaure Théropode primitive. Il était fin et agile. Son nom, « forme creuse », signifie que ses os étaient creux, ce qui servait à l’alléger et à le bâtir pour la course. Sa taille pouvait atteindre 3 mètres de long pour un poids d'environ 15 à 30 kilos.
Il se contentait de poissons et d’insectes. Ses dents étaient acérées, fortement recourbées et crénelées.
Presque un petit animal domestique, quoiqu'un peu encombrant en habitat urbain, surtout parisien.
Voyez comme il est charmant
C'est mon premier DINO digne de ce nom (Hommage à xxxx qui a rendu les dinos célèbres sur ce forum)
Lancé dans les steppes Eurusdiennes entre janvier 2012 et le 21 novembre 2017, soit une course de 5,89 années, il a franchi la ligne d'arrivée avec précisément 589,7%, soit 100% annuel.
Résultats linéaires, c'est à dire sans réinvestissement des PVs acquises au fil du temps dans la taille des positions.
Objectif symbolique atteint
Il continuera d'évoluer au fil du temps
NB: jusqu'au bout du backtest qui se déployait bien j'ai craint qu'il n'échoue à une canine près. C'est un "hasard" s'il parvient à ce résultat rond et précis.
Lancé dans les steppes Eurusdiennes entre janvier 2012 et le 21 novembre 2017, soit une course de 5,89 années, il a franchi la ligne d'arrivée avec précisément 589,7%, soit 100% annuel.
Résultats linéaires, c'est à dire sans réinvestissement des PVs acquises au fil du temps dans la taille des positions.
Objectif symbolique atteint
Il continuera d'évoluer au fil du temps
NB: jusqu'au bout du backtest qui se déployait bien j'ai craint qu'il n'échoue à une canine près. C'est un "hasard" s'il parvient à ce résultat rond et précis.
Certains seront peut être surpris de constater que mes résultats s'améliorent assez régulièrement ces derniers temps.
C'est lié à deux facteurs: la base "génétique" (comprendre les méthodes fondamentales de trading) est enfin bonne. Je savais ce qu'il fallait faire en quelque sorte mais je rencontrais des difficultés à le matérialiser. La programmation où je suis débutant représentait un obstacle réel, ma complainte sur le temps, le matériel et puis je me suis laissé distraire, mais cela faisait partie de l'apprentissage du codage d'algo, avec la mise au point de robots avec des méthodes classiques que je me suis tout de même évertué à améliorer.
La deuxième raison réside dans mes procédures de mise au point, je le fais de façon itérative. Je ne vais pas directement, d'une façon que je considère précipitée, vers ce que je pressens être des améliorations potentielles.
Ainsi comme je considère les choses en "espaces à n dimensions", il me semble préférable de ne travailler simultanément que sur une seule dimension, ce qui me permet de mieux en appréhender les effets qualitatifs et quantitatifs. Faire varier plusieurs variables simultanément serait pour moi une source de confusion.
Le motif de mon assurance, et même ma certitude de continuer à faire évoluer le coelophysis se trouve donc dans les méthodes, qui ne peuvent que fournir des résultats.
Pour mémoire, je suis partiellement imprégné de l'esprit germanique. Partiellement
C'est lié à deux facteurs: la base "génétique" (comprendre les méthodes fondamentales de trading) est enfin bonne. Je savais ce qu'il fallait faire en quelque sorte mais je rencontrais des difficultés à le matérialiser. La programmation où je suis débutant représentait un obstacle réel, ma complainte sur le temps, le matériel et puis je me suis laissé distraire, mais cela faisait partie de l'apprentissage du codage d'algo, avec la mise au point de robots avec des méthodes classiques que je me suis tout de même évertué à améliorer.
La deuxième raison réside dans mes procédures de mise au point, je le fais de façon itérative. Je ne vais pas directement, d'une façon que je considère précipitée, vers ce que je pressens être des améliorations potentielles.
Ainsi comme je considère les choses en "espaces à n dimensions", il me semble préférable de ne travailler simultanément que sur une seule dimension, ce qui me permet de mieux en appréhender les effets qualitatifs et quantitatifs. Faire varier plusieurs variables simultanément serait pour moi une source de confusion.
Le motif de mon assurance, et même ma certitude de continuer à faire évoluer le coelophysis se trouve donc dans les méthodes, qui ne peuvent que fournir des résultats.
Pour mémoire, je suis partiellement imprégné de l'esprit germanique. Partiellement
Pendant le dernier test de la soirée, avec une nouvelle itération qui devrait être bénéfique, autre commentaire.
100% annuel signifie une moyenne d'environ 0,4% journalier avec une année de grosso modo 240 journées de trading.
En considérant ainsi les choses, 0,4% quotidien est un résultat plutôt satisfaisant. Néanmoins on sait qu'une journée de trading recèle d'autres potentiels.
100% annuel signifie une moyenne d'environ 0,4% journalier avec une année de grosso modo 240 journées de trading.
En considérant ainsi les choses, 0,4% quotidien est un résultat plutôt satisfaisant. Néanmoins on sait qu'une journée de trading recèle d'autres potentiels.
Oui bravo Euraed : 100% c'est justement mon objectif annuel arbitraire pour justifier les risques, le travail, le stress même si ce dernier est moindre en auto.
Bonjour,
Le dernier test lancé cette nuit avant extinction des feux a donné une amélioration marginale, je suis passé à 102,2% annuel (c'est une demi déception, je m'y attendais un peu, je dois y associer un autre changement pour que ce dernier puisse porter ses fruits, mais... step by step)
xxxx tes questions font écho à mes propres interrogations, et in fine quelles sont les prochaines étapes, c'est à dire comment séquencer mes priorités et donc organiser les travaux.
Maintenant que le résultat absolu désiré est atteint, du moins en test, et même si comme le souligne Trappiste nous parlons d’un seuil purement arbitraire, le bon travailleur au service de l'industrie germanique (et autres) que je suis souhaite le rendre robuste.
Même mon épouse ne croît pas que mes rapides progrès actuels, après avoir pataugé, puissent être véritables. Il ne pourrait qu’y avoir des artefacts, des bugs positifs, cela lui semble simplement irréel et impossible. La seule chose palpable est que dès que possible je passe tout mon temps disponible sur le pc . C’est négocié… mais cela ne saurait durer, de cet unique point de vue il me faut des résultats pour gagner des crédits supplémentaires, Same player play again, sinon cela va tilter…
Elle doute. C’est d’ailleurs intéressant cette confrontation aux croyances et comment résoudre un hiatus.
Pour répondre précisément à tes questions Billie, je vous indiquerai ultérieurement le profit factor et le taux de trades gagnants, néanmoins il me faut lancer un backtest sur mon outil initial mais qui est très lent. J'attends donc le nouveau pc pour ce faire... C’est ballot mais c’est ainsi.
Je vous indiquerai également un MaxDD pratique. Pratique car la définition orthodoxe de MaxDD n'a pas de sens pour cet algo.
Toutefois j'en ai déjà bien sûr une idée les chiffres de profit factor et taux de succès sur trade seront bons.
La question du Dirac est très intéressante. C'est lié à la génétique du DINO (et donc à ma psycho de trader) .
Comme je l'avais indiqué, j'ai fait le choix d'une exposition permanente au marché, quoiqu'il se passe, c'est à mes yeux une condition essentielle pour ne pas "tricher" et éviter tout leurre artificiel.
Je lis sur le forum que certains inhibent leurs robots lors de certaines tranches horaires, évitent l'overnight etc...
Dès le départ j'ai adopté une position très exigeante sur ce sujet, même si je l'avoue j'ai aussi parfois, au début, cédé à la tentation de fuir devant l'obstacle en programmant des exceptions... Or je suis actuellement intimement convaincu que cette attitude de fuite est très préjudiciable.
En effet, fuir devant une volatilité violente ou un gap n’est qu’une solution très temporaire. Car l’expérience nous a enseigné, même si c’est très rare, que ce type de configuration peut intervenir à tout moment. Même principe pour l’overnight qui peut représenter un coût et piéger, le perfide, notre robot pendant notre sommeil.
So what ?
Soit le robot sait gagner plus d’argent en overnight qu’il ne peut en perdre, soit il est capable de se prendre un gap de centaines de points, soit il est capable de résister à un dirac à double sens du marché, soit il ne l’est pas. Il est vain de chercher à éviter les configurations difficiles car elles se présenteront toujours, à un moment ou un autre, inattendu,. On ne saurait compter sur la chance ou sur une miraculeuse intervention manuelle.
C’est ainsi que mes tests se font sur 6 ans sans aucune interruption, pas même à Noël. Zéro filtre, un robot robuste doit savoir gérer tout seul le brexit, la crise grecque, les déclarations intempestives de tel ou tel responsable politique ou financier., de jour, de nuit et pendant la fermeture des marchés le week-end.
Alors avec ces prémisses à l’esprit, cela ne me surprend pas d’avoir des diracs de baisse sur ma courbe d’equity. Cette question appelle deux réponses, l’une est structurelle et technique, l’autre est psychologique.
Techniquement, l’algo actuel est calibré pour ne pas trop décrocher en cas de sollicitation violente (il y en a beaucoup sur eurusd entre 2012 et 2017). Une partie de la gestion de ces événements indésirables est réalisée grâce au rendement intrinsèque qui est bien supérieure au résultat global. Par analogie, un métabolisme sain.
Comme en trading discrétionnaire, une partie des gains est consacrée à l’absorption des pertes (c’est la notion de profit factor).Par conséquent, il est vital que le rendement intrinsèque de l’algo soit puissant.
Ce qui bride la majorité des traders c’est la peur de la perte et son corollaire l’obsession du 100%. A partir du moment ou l’on a pleinement accepté l’idée que la perte est consubstantielle à l’activité de trading, cela devient un objet technique à gérer.
C’est pourquoi la présence de dirac (consécutive à des gaps) ne me gêne pas si je peux définir les conditions pour en limiter l’amplitude. Ils ne sont que psychologiquement indésirables car mathématiquement ils ne remettent nullement en cause la performance globale.
On notera d’ailleurs que d’un point de vue probabiliste il devrait y avoir environ autant de gaps avec baisse d’equity que de gaps avec hausse d’equity. (Dans la pratique c’est le cas, il y a autant de chance que de malchance) Dans ces conditions, il suffit alors d’assurer la survie lors des moments critiques.
Ceci m’amène à conclure sur l’une de tes questions, le levier. Sur cet algo il est conditionné par la prudence pour répondre aux répondre aux cas critiques. Il est variable p ar incrément/décrément de 0,2 (mais aucune martingale)
Ce robot n’est donc quasiment pas scalable (voir Taleb), du moins lors de la première année.
D’une certaine façon on pourrait dire qu’il a une composante partielle auto-scalable.
(C’est dommage hein… un pti levier de 10 et cool 1000% dans la poche)
Evidemment après deux années, lorsque l’equity est x3, soit il ne peut ‘plus rien’ lui arriver, les gains précédents servent amplement de tampon, soit on le maintient dans le même niveau de risque pour booster la rentabilité et on réinvestit les gains précédents en volume tradable, auquel cas on conserve la même exposition au risque et la même volatilité d’equity.
Evidemment cela ne marche que sur un trading d’accumulation ou sur un gros compte où les prélèvements de rente seront faibles par rapport aux gains.
Ainsi ma conclusion actuelle, contrairement à l’une de mes priorités antérieures, est que la recherche de robustesse de la courbe d’equity ne passera pas par une réduction de sa volatilité mais je vais plutôt explorer la piste de la puissance du rendement sans pour autant accroître en proportion la volatilité. Cela me paraît aujourd’hui plus prometteur.
En d’autres termes, je vais tenter de trouver un résultat de 100% en 6 mois qui dans le pire des cas deviendrait 100% en 1 an et donc plus en % sur un espace de temps plus long.
Ma nouvelle métrique de performance devient donc le temps nécessaire pour atteindre un doublement de l’equity, le MaxDD est une priorité associée mais subordonnée.
Lorsque ceci sera fait, alors je passerai sur d’autres tests de robustesse : placer le robot face à d’autres paires de devises. Normalement il devrait être en situation de sortir des rendements similaires, dans le cas contraire il y aura eu curve fitting… et donc poubelle.
Il y en a notamment deux qui seront révélatrices de la solidité de l’algo : l’eurchf et l’usdchf lors de la décision de la banque suisse…
NB : je patiente donc encore un peu avant de le passer en démo
Le dernier test lancé cette nuit avant extinction des feux a donné une amélioration marginale, je suis passé à 102,2% annuel (c'est une demi déception, je m'y attendais un peu, je dois y associer un autre changement pour que ce dernier puisse porter ses fruits, mais... step by step)
xxxx tes questions font écho à mes propres interrogations, et in fine quelles sont les prochaines étapes, c'est à dire comment séquencer mes priorités et donc organiser les travaux.
Maintenant que le résultat absolu désiré est atteint, du moins en test, et même si comme le souligne Trappiste nous parlons d’un seuil purement arbitraire, le bon travailleur au service de l'industrie germanique (et autres) que je suis souhaite le rendre robuste.
Même mon épouse ne croît pas que mes rapides progrès actuels, après avoir pataugé, puissent être véritables. Il ne pourrait qu’y avoir des artefacts, des bugs positifs, cela lui semble simplement irréel et impossible. La seule chose palpable est que dès que possible je passe tout mon temps disponible sur le pc . C’est négocié… mais cela ne saurait durer, de cet unique point de vue il me faut des résultats pour gagner des crédits supplémentaires, Same player play again, sinon cela va tilter…
Elle doute. C’est d’ailleurs intéressant cette confrontation aux croyances et comment résoudre un hiatus.
Pour répondre précisément à tes questions Billie, je vous indiquerai ultérieurement le profit factor et le taux de trades gagnants, néanmoins il me faut lancer un backtest sur mon outil initial mais qui est très lent. J'attends donc le nouveau pc pour ce faire... C’est ballot mais c’est ainsi.
Je vous indiquerai également un MaxDD pratique. Pratique car la définition orthodoxe de MaxDD n'a pas de sens pour cet algo.
Toutefois j'en ai déjà bien sûr une idée les chiffres de profit factor et taux de succès sur trade seront bons.
La question du Dirac est très intéressante. C'est lié à la génétique du DINO (et donc à ma psycho de trader) .
Comme je l'avais indiqué, j'ai fait le choix d'une exposition permanente au marché, quoiqu'il se passe, c'est à mes yeux une condition essentielle pour ne pas "tricher" et éviter tout leurre artificiel.
Je lis sur le forum que certains inhibent leurs robots lors de certaines tranches horaires, évitent l'overnight etc...
Dès le départ j'ai adopté une position très exigeante sur ce sujet, même si je l'avoue j'ai aussi parfois, au début, cédé à la tentation de fuir devant l'obstacle en programmant des exceptions... Or je suis actuellement intimement convaincu que cette attitude de fuite est très préjudiciable.
En effet, fuir devant une volatilité violente ou un gap n’est qu’une solution très temporaire. Car l’expérience nous a enseigné, même si c’est très rare, que ce type de configuration peut intervenir à tout moment. Même principe pour l’overnight qui peut représenter un coût et piéger, le perfide, notre robot pendant notre sommeil.
So what ?
Soit le robot sait gagner plus d’argent en overnight qu’il ne peut en perdre, soit il est capable de se prendre un gap de centaines de points, soit il est capable de résister à un dirac à double sens du marché, soit il ne l’est pas. Il est vain de chercher à éviter les configurations difficiles car elles se présenteront toujours, à un moment ou un autre, inattendu,. On ne saurait compter sur la chance ou sur une miraculeuse intervention manuelle.
C’est ainsi que mes tests se font sur 6 ans sans aucune interruption, pas même à Noël. Zéro filtre, un robot robuste doit savoir gérer tout seul le brexit, la crise grecque, les déclarations intempestives de tel ou tel responsable politique ou financier., de jour, de nuit et pendant la fermeture des marchés le week-end.
Alors avec ces prémisses à l’esprit, cela ne me surprend pas d’avoir des diracs de baisse sur ma courbe d’equity. Cette question appelle deux réponses, l’une est structurelle et technique, l’autre est psychologique.
Techniquement, l’algo actuel est calibré pour ne pas trop décrocher en cas de sollicitation violente (il y en a beaucoup sur eurusd entre 2012 et 2017). Une partie de la gestion de ces événements indésirables est réalisée grâce au rendement intrinsèque qui est bien supérieure au résultat global. Par analogie, un métabolisme sain.
Comme en trading discrétionnaire, une partie des gains est consacrée à l’absorption des pertes (c’est la notion de profit factor).Par conséquent, il est vital que le rendement intrinsèque de l’algo soit puissant.
Ce qui bride la majorité des traders c’est la peur de la perte et son corollaire l’obsession du 100%. A partir du moment ou l’on a pleinement accepté l’idée que la perte est consubstantielle à l’activité de trading, cela devient un objet technique à gérer.
C’est pourquoi la présence de dirac (consécutive à des gaps) ne me gêne pas si je peux définir les conditions pour en limiter l’amplitude. Ils ne sont que psychologiquement indésirables car mathématiquement ils ne remettent nullement en cause la performance globale.
On notera d’ailleurs que d’un point de vue probabiliste il devrait y avoir environ autant de gaps avec baisse d’equity que de gaps avec hausse d’equity. (Dans la pratique c’est le cas, il y a autant de chance que de malchance) Dans ces conditions, il suffit alors d’assurer la survie lors des moments critiques.
Ceci m’amène à conclure sur l’une de tes questions, le levier. Sur cet algo il est conditionné par la prudence pour répondre aux répondre aux cas critiques. Il est variable p ar incrément/décrément de 0,2 (mais aucune martingale)
Ce robot n’est donc quasiment pas scalable (voir Taleb), du moins lors de la première année.
D’une certaine façon on pourrait dire qu’il a une composante partielle auto-scalable.
(C’est dommage hein… un pti levier de 10 et cool 1000% dans la poche)
Evidemment après deux années, lorsque l’equity est x3, soit il ne peut ‘plus rien’ lui arriver, les gains précédents servent amplement de tampon, soit on le maintient dans le même niveau de risque pour booster la rentabilité et on réinvestit les gains précédents en volume tradable, auquel cas on conserve la même exposition au risque et la même volatilité d’equity.
Evidemment cela ne marche que sur un trading d’accumulation ou sur un gros compte où les prélèvements de rente seront faibles par rapport aux gains.
Ainsi ma conclusion actuelle, contrairement à l’une de mes priorités antérieures, est que la recherche de robustesse de la courbe d’equity ne passera pas par une réduction de sa volatilité mais je vais plutôt explorer la piste de la puissance du rendement sans pour autant accroître en proportion la volatilité. Cela me paraît aujourd’hui plus prometteur.
En d’autres termes, je vais tenter de trouver un résultat de 100% en 6 mois qui dans le pire des cas deviendrait 100% en 1 an et donc plus en % sur un espace de temps plus long.
Ma nouvelle métrique de performance devient donc le temps nécessaire pour atteindre un doublement de l’equity, le MaxDD est une priorité associée mais subordonnée.
Lorsque ceci sera fait, alors je passerai sur d’autres tests de robustesse : placer le robot face à d’autres paires de devises. Normalement il devrait être en situation de sortir des rendements similaires, dans le cas contraire il y aura eu curve fitting… et donc poubelle.
Il y en a notamment deux qui seront révélatrices de la solidité de l’algo : l’eurchf et l’usdchf lors de la décision de la banque suisse…
NB : je patiente donc encore un peu avant de le passer en démo
rolala, que de précautions ... rien ne remplace le réel : je l'ai appris douloureusement. Je suis tout à fait d'accord avec l’idée que la perte est consubstantielle à l’activité de trading, y compris en auto mais dans ce dernier cas, elle est plus dure à gérer. Quand l'algo se met à tutoyer ses bornes basses, il est difficile de bien en cerner les raisons : respiration normale, changement de marché, dérive de l'algo ... Et donc de ne pas le modifier. Or toute modif, même nécessaire, fausse son analyse. Je serais extrêmement étonné que tu ne sois pas conduit à en faire. Donc, pourquoi ne pas le lancer en fort sous-levier avec une montée progressive selon ses résultats ?
Pour le slg, je pense aussi qu'il est absolument indispensable, sinon c'est accepter que le point d'entrée est loin d'être optimal - pourquoi ? -, avec pour corollaire en plus un temps accru en position qui multiplie les risques.
Pour le slg, je pense aussi qu'il est absolument indispensable, sinon c'est accepter que le point d'entrée est loin d'être optimal - pourquoi ? -, avec pour corollaire en plus un temps accru en position qui multiplie les risques.
Voici la tête de l'equity avec une version en progrès (introduction du complément utile à la précédente version d'hier soir).
J'ai fait sauter une des "adhérences".
Nouvelle métrique d'évaluation de performance: 8,92 mois (134,5% annuel)
On peut y voir le rendement intrinsèque du robot et ses accidents de parcours, environ 1 par an.
Si on la compare à la précédente courbe d'equity postée, elle est un peu plus lisse.
Au début de cette file j'avais annoncé que pour des résultats inhabituels il faudrait chercher à être disruptif. C'est à l'oeuvre maintenant.
Je ne souhaite pas expliquer en détail les méthodes et leurs fondations, désolé.
Je vais bien sûr chercher à minimiser les baisses mais cela ne doit pas se faire au détriment de la performance sur longue durée.
Une autre version Kaizen vient d'être lancée en test. Ma boîte à outils est à présent plus étoffée, j'ai l'impression de lire assez bien les signaux, ce qui me permet d'introduire très rapidement les adaptations qui me semblent porteuses.
J'ai fait sauter une des "adhérences".
Nouvelle métrique d'évaluation de performance: 8,92 mois (134,5% annuel)
On peut y voir le rendement intrinsèque du robot et ses accidents de parcours, environ 1 par an.
Si on la compare à la précédente courbe d'equity postée, elle est un peu plus lisse.
Au début de cette file j'avais annoncé que pour des résultats inhabituels il faudrait chercher à être disruptif. C'est à l'oeuvre maintenant.
Je ne souhaite pas expliquer en détail les méthodes et leurs fondations, désolé.
Je vais bien sûr chercher à minimiser les baisses mais cela ne doit pas se faire au détriment de la performance sur longue durée.
Une autre version Kaizen vient d'être lancée en test. Ma boîte à outils est à présent plus étoffée, j'ai l'impression de lire assez bien les signaux, ce qui me permet d'introduire très rapidement les adaptations qui me semblent porteuses.
Très légère amélioration, 8.33
Sujets similaires
Quel indicateur prendre en compte pour un robot trader
par jctrader » 24 mai 2014 16:44 (18 Réponses)
par jctrader » 24 mai 2014 16:44 (18 Réponses)