Je repensais à ce sujet. Afin de réduire l'impact sur le temps d'intégration de nouvelles données, il serait peut être préférable de rester sur des datas à fréquence fixe !
Car j'imagine que le souci avec les ticks c'est qu'ils ont une répartotoon temporelle aléatoire si on regarde sous la seconde.
La logique informatique de traitement est plus compliquée.
Comme aujourd'hui tu travailles avec des données une minute, tu pourrais probablement passer facilement en données 10 secondes.
Cela te fournirait une matière immédiatement exploitable tout en améliorant ta précision par 6.
Quelques dents pourraient grincer mais si l'on s'appuie sur le théorème de Nyquist Shannon, on peut alors estimer qu'avec une fréquence d'échantillonnage du signal à 0,1 Herz, de période 10 secondes, tu as une représentation assez fiable d'un signal qui aurait une
ut 30 secondes. Tu peux alors bâtir sereinement des stratégies sur une
ut 1 minute, alors qu'aujourd'hui tu es limité à l'
ut 5 minutes.
Pour mémoire, la musique sur CD est échantillonnée à 44,1 Khz 16 bits alors que l'oreille jeune ne capte que jusqu'à max 20 Khz. Et il est inaudible de passer en 24 bits 96 Khz (Pour les connaisseurs, les changements audibles proviennent non pas de l'échantillonnage mais du remastering...)
C'est ma suggestion pratique du jour
Et c 'est plus que suffisant pour aborder des algos à
rendement élevé et qui ne seront pas à quelques centaines de ticks près...