Bonjour,
Bravo pour le test par méthode de Monte Carlo, c'est systématique et représentatif de toutes les configurations.
Simultanément cette force comporte en elle un talon d'Achille, je m'explique, tu éprouves ton algo avec toutes configs, y compris celles à 10 ^-6 risques d'occurrence.
Son côté systématique permet de les identifier.
La question ensuite est de savoir s'il faut éliminer un algo qui rapporte 150% l'an parce qu'il a une probabilité P(A) très faible de planter.
Par prudence oui. Néanmoins on pourrait aussi considérer cela selon l'espérance de gain.
Je suis en ce moment confronté à ce dilemme, j'ai un type d'algo qui sort une perf totalement hallucinante en 2016, mais il y a une config de marché qu'il déteste et qui ne peut que difficilement être anticipée. Pour l'instant il est au tiroir... je le sortirai peut être un jour pour un quitte ou mille sur un petit compte.
Donc l'espérance de gain... (au sens maths). Quand décider de mettre au rebut ou de côté un algo ? à quel niveau d'exigence ? trop ou pas assez.
Comme je ne peux pas coder du Monte-Carlo sur mes algos j'ai adopté une autre technique, le test sur toutes les configs types de marché. Puis l'identification des phases qui auraient pu devenir critiques, les scénaris alternatifs, qu'est ce qui aurait pu tuer l'equity et auxquels par chance on a échappé. Ce n'est pas une étape évidente car on a
tendance spontanément à ne voir que l'equity croissante et cela requiert d'entrer dans le détail des ordres passés.
J'ai donc également une quinzaine de familles d'algos à logiques différentes avec des variantes et tout comme toi me lancer sur une nouvelle famille/principe me donne souvent des idées pour accommoder différemment, apporter un complément à des algos précédents, créer des hybrides en y rajoutant des modules.
J'utilise très peu d'indicateurs standards, voire même parfois pas du tout. Le souci c'est le codage