Bonjour,
Le dernier test lancé cette nuit avant extinction des feux a donné une amélioration marginale, je suis passé à 102,2% annuel (c'est une demi déception, je m'y attendais un peu, je dois y associer un autre changement pour que ce dernier puisse porter ses fruits, mais... step by step)
xxxx tes questions font écho à mes propres interrogations, et in fine quelles sont les prochaines étapes, c'est à dire comment séquencer mes priorités et donc organiser les travaux.
Maintenant que le résultat absolu désiré est atteint, du moins en test, et même si comme le souligne Trappiste nous parlons d’un seuil purement arbitraire, le bon travailleur au service de l'industrie germanique (et autres) que je suis souhaite le rendre robuste.
Même mon épouse ne croît pas que mes rapides progrès actuels, après avoir pataugé, puissent être véritables. Il ne pourrait qu’y avoir des artefacts, des bugs positifs, cela lui semble simplement irréel et impossible. La seule chose palpable est que dès que possible je passe tout mon temps disponible sur le pc . C’est négocié… mais cela ne saurait durer, de cet unique point de vue il me faut des résultats pour gagner des crédits supplémentaires, Same player play again, sinon cela va tilter…
Elle doute. C’est d’ailleurs intéressant cette confrontation aux croyances et comment résoudre un hiatus.
Pour répondre précisément à tes questions Billie, je vous indiquerai ultérieurement le
profit factor et le taux de trades gagnants, néanmoins il me faut lancer un backtest sur mon outil initial mais qui est très lent. J'attends donc le nouveau pc pour ce faire... C’est ballot mais c’est ainsi.
Je vous indiquerai également un
MaxDD pratique. Pratique car la définition orthodoxe de
MaxDD n'a pas de sens pour cet algo.
Toutefois j'en ai déjà bien sûr une idée

les chiffres de
profit factor et taux de succès sur trade seront bons.
La question du Dirac est très intéressante. C'est lié à la génétique du DINO (et donc à ma psycho de trader) .
Comme je l'avais indiqué, j'ai fait le choix d'une exposition permanente au marché, quoiqu'il se passe, c'est à mes yeux une condition essentielle pour ne pas "tricher" et éviter tout leurre artificiel.
Je lis sur le forum que certains inhibent leurs robots lors de certaines tranches horaires, évitent l'overnight etc...
Dès le départ j'ai adopté une position très exigeante sur ce sujet, même si je l'avoue j'ai aussi parfois, au début, cédé à la tentation de fuir devant l'obstacle en programmant des exceptions... Or je suis actuellement intimement convaincu que cette attitude de fuite est très préjudiciable.
En effet, fuir devant une
volatilité violente ou un gap n’est qu’une solution très temporaire. Car l’expérience nous a enseigné, même si c’est très rare, que ce type de configuration peut intervenir à tout moment. Même principe pour l’overnight qui peut représenter un coût et piéger, le perfide, notre robot pendant notre sommeil.
So what ?
Soit le robot sait gagner plus d’argent en overnight qu’il ne peut en perdre, soit il est capable de se prendre un gap de centaines de points, soit il est capable de résister à un dirac à double sens du marché, soit il ne l’est pas. Il est vain de chercher à éviter les configurations difficiles car elles se présenteront toujours, à un moment ou un autre, inattendu,. On ne saurait compter sur la chance ou sur une miraculeuse intervention manuelle.
C’est ainsi que mes tests se font sur 6 ans sans aucune interruption, pas même à Noël. Zéro filtre, un robot robuste doit savoir gérer tout seul
le brexit, la
crise grecque, les déclarations intempestives de tel ou tel responsable politique ou financier., de jour, de nuit et pendant la fermeture des marchés le week-end.
Alors avec ces prémisses à l’esprit, cela ne me surprend pas d’avoir des diracs de baisse sur ma courbe d’equity. Cette question appelle deux réponses, l’une est structurelle et technique, l’autre est psychologique.
Techniquement, l’algo actuel est calibré pour ne pas trop décrocher en cas de sollicitation violente (il y en a beaucoup sur eurusd entre 2012 et 2017). Une partie de la gestion de ces événements indésirables est réalisée grâce au
rendement intrinsèque qui est bien supérieure au résultat global. Par analogie, un métabolisme sain.
Comme en trading discrétionnaire, une partie des gains est consacrée à l’absorption des pertes (c’est la notion de
profit factor).Par conséquent, il est vital que le
rendement intrinsèque de l’algo soit puissant.
Ce qui bride la majorité des traders c’est la peur de la perte et son corollaire l’obsession du 100%. A partir du moment ou l’on a pleinement accepté l’idée que la perte est consubstantielle à l’activité de trading, cela devient un objet technique à gérer.
C’est pourquoi la présence de dirac (consécutive à des gaps) ne me gêne pas si je peux définir les conditions pour en limiter l’amplitude. Ils ne sont que psychologiquement indésirables car mathématiquement ils ne remettent nullement en cause la performance globale.
On notera d’ailleurs que d’un point de vue probabiliste il devrait y avoir environ autant de gaps avec baisse d’equity que de gaps avec hausse d’equity. (Dans la pratique c’est le cas, il y a autant de chance que de malchance) Dans ces conditions, il suffit alors d’assurer la survie lors des moments critiques.
Ceci m’amène à conclure sur l’une de tes questions, le levier. Sur cet algo il est conditionné par la prudence pour répondre aux répondre aux cas critiques. Il est variable p ar incrément/décrément de 0,2 (mais aucune martingale)
Ce robot n’est donc quasiment pas scalable (voir Taleb), du moins lors de la première année.
D’une certaine façon on pourrait dire qu’il a une composante partielle auto-scalable.
(C’est dommage hein… un pti levier de 10 et cool 1000% dans la poche)
Evidemment après deux années, lorsque l’equity est x3, soit il ne peut ‘plus rien’ lui arriver, les gains précédents servent amplement de tampon, soit on le maintient dans le même niveau de risque pour booster la rentabilité et on réinvestit les gains précédents en volume tradable, auquel cas on conserve la même exposition au risque et la même
volatilité d’equity.
Evidemment cela ne marche que sur un trading d’accumulation ou sur un gros compte où les prélèvements de rente seront faibles par rapport aux gains.
Ainsi ma conclusion actuelle, contrairement à l’une de mes priorités antérieures, est que la recherche de robustesse de la courbe d’equity ne passera pas par une réduction de sa
volatilité mais je vais plutôt explorer la piste de la puissance du
rendement sans pour autant accroître en proportion la
volatilité. Cela me paraît aujourd’hui plus prometteur.
En d’autres termes, je vais tenter de trouver un résultat de 100% en 6 mois qui dans le pire des cas deviendrait 100% en 1 an et donc plus en % sur un espace de temps plus long.
Ma nouvelle métrique de performance devient donc le temps nécessaire pour atteindre un doublement de l’equity, le
MaxDD est une priorité associée mais subordonnée.
Lorsque ceci sera fait, alors je passerai sur d’autres tests de robustesse : placer le robot face à d’autres paires de devises. Normalement il devrait être en situation de sortir des rendements similaires, dans le cas contraire il y aura eu curve fitting… et donc poubelle.
Il y en a notamment deux qui seront révélatrices de la solidité de l’algo : l’eurchf et l’usdchf lors de la décision de la banque suisse…
NB : je patiente donc encore un peu avant de le passer en démo