Félicitation pour ce dynamisme infatigable !
Concernant les algorithmes génétiques, je ne te suivrais pas tout fait.
Je ne crois pas qu'ils soient spécifiquement adaptés à une solution imprécise ou floue.
Leur rôle est d'explorer un espace, éventuellement gigantesque pour fournir dans un temps décent de calcul une solution proche de la meilleure. Ca ne fait qu'explorer efficacement les possibles. Marrant que ce soit les mécanismes de la vie qui aient donné l'idée de cette méthode qui a montré sont incroyable efficacité.
Si je dispose d'un ordinateur de puissance infini, à l'évidence je jette tous mes algo génets puis mouline toutes le combinaisons.
C'est tout.
Par ailleurs, je crains que la question du temps de calcul et celui de la sur optimisation ne soient pas le même sujet. Face à une problème complexe, j'ai
tendance à le découper en sous problèmes, si tant est qu'ils soient indépendant.
La sur optimisation par ajustement des paramètres de back test est un problème récurrent, monstrueux, dévastateur et permanent. Chassez la sur optimisation et elle revient au galop. On arrive à sur optimiser sans optimiser de paramètre : juste quelques IF THEN sur une paire favorite qui marchent depuis quelques temps et ne marcheront pas dans le futur, c'est déjà de la sur optimisation.
Dans ce contexte - je ne vais pas écrire tout un article concernant la sur optimisation - je ne vois pas en quoi faire sa cuisine génétique en C++ plutôt que celle existante dans certains environnements, résolve en quoi que ce soit la question de la sur optimisation.
Concernant les NN, je crois que là, il y a un lien entre les deux problèmes : capacité d'apprentissage-temps de calcul- efficacité / sur optimisation.
Les processus sont peu explicites. Ils font des choses, mais il est difficile d'expliciter façon base de règle ce qu'ils font vraiment. La perception intuitive du nombre de degré de liberté est délicate. On ne sait pas sur quel nombre d'évènements s'ajustent certains paramètres. C'est une erreur récurrente de croire que le nombre d'évènements c'est le nombre de trades. S'il y a 3 phases de hausses et 4 phases de baisses de long terme l'ajustement de paramètres qui tiennent compte d'une
tendance de long terme n'ont que 6 évènements : les retournements. Là, le out of sample ne donnera rien même si on fait 2000 scalps pendant l'historique étudié.
Un système complexe façon boite noire qui, quelque part et de façon non explicite, créera une pris en compte de cette
tendance de long terme aura forcément des performance sur le passé non reproductible dans le futur. Ici la
tendance de long terme n'est qu'un exemple. On peut aussi avoir des dimensions fractales - ou plutôt le gradient de dimension fractale - qui se trouve à un moment dans un TF puis dans un autre TF un moment plus tard. C'est peut être totalement aléatoire. Ou pas. L'illusion de prédictibilité est toujours fournie lorsque par hasard, de longues séries apparaisse dans l'historique de l'actif considéré. Plus le système est complexe, puissant et autonome, plus il aura le potentiel pour... se faire avoir !
C'est pourquoi je préfère un génétique - voir pas de génétique du tout - plutôt que des boites noires qui risquent surtout d'apprendre le bruit du passé.
Bonne continuation !