先设定我有一个策略,包含一个参数A。每次优化的按利益最大结果为S。策略有基本核心思路,参数只是调整盈利的多少,不决定盈亏。换句话说,哪怕参数调整非常差,也保证基本是盈利。
比如我现在设置bar样本范围为5万条,会得出一个优化结果A0。得到一个结果S0.
但是如果我设置样本范围为5000条,把上述的5万条按照时间先后去划分为十个区间,也就是十个区间,每个区间为5千条bar.然后先优化第十个区间,得出第十个区间的优化参数A10,结果为S10,然后用以这个A10为初始设置去执行第九个区间,得到得到新的优化参数A9.和结果S9.依次类推,得到下面的十个区间的十个优化参数A10-A1,和优化结果S10-S1.然后比较S0和 S10+S9+....+S1.
这个想法的实践意义是不是一次获取最佳参数,而是缩短区间,加快优化频率去尽量紧跟实盘的变化,用5万为范围得到最佳参数可能远远无法适应实盘的变化,但是缩短区间,加快频率能让参数更适应实时行情的变化。
目前系统的优化设置能实现我的上述需求吗?即一次5万区间优化和分布10次5千的分布优化。我想对比两次优化的结果。
补充,只有第十个区间是用优化结果作为最后的统计结果。后面的九个区间都是以上个区间的优化参数作为执行参数得到结果作为统计结果。而不是以参数优化后得到结果作为哦优化结果。举例,第九区间的优化结果,不是第九区间的最优参数得到结果,而是以上个区间,即第十区间的优化参数去执行得到结果。
没有直接能用的工具