Los datos de transacción IMO son un enfoque mejor, porque ambas partes del intercambio están de acuerdo en que el precio es "correcto". La literatura tiende a descomponer el precio de la transacción $P$ en un precio verdadero/eficiente $P^e$ más ruido de microestructura, que creo que proviene de Hasbrouck '93 en la Revisión de Estudios Financieros. Así terminas con algo como $$P^e_t = P^e_{t-1} + \nu$$ y $$P_t = round(P^e_t + c_t Q_t, d)$$ donde $\nu \sim N(0, \sigma^2_t)$, $c_t > 0$, $Q_t \in \left\{-1, 1 \right\}$, y $d$ es el tamaño del tick. Nota que $c_t$ proporciona el spread y $Q_t$ te dice si la transacción es iniciada por el comprador o el vendedor (típicamente determinado con el algoritmo "Lee-Ready"). Encontré esta presentación particular en un documento de trabajo de 2002 de Engle y Russell (editado: titulado Análisis de Datos de Alta Frecuencia); creo que esto es bastante estándar y probablemente puedas encontrar una buena cantidad de investigación que intenta proporcionar $c_t = f(\cdot)$. Parece que Andersen, Bollerslev y Diebold tienen un documento de trabajo de 2007 del NBER (editado: titulado Roughing it Up: Including Jump Components in the Measurement, Modeling and Forecasting of Return Volatility) que proporciona un tratamiento más exhaustivo de estas ideas.
Cuando se trata de datos de (ultra) alta frecuencia, también tienes el problema del tiempo hasta la transacción. Engle tiene un artículo de Econometrica de 2000 (editado: titulado La Econometría de Datos de Ultra Alta Frecuencia) en el que describe cómo tener en cuenta el tiempo hasta la transacción, pero está utilizando puntos medios de oferta y demanda, no transacciones.
No tengo experiencia de primera mano para saber si usar el punto medio es una mala suposición en la práctica, pero los artículos de 2000 y 2007 deberían ser un buen comienzo.
0 votos
Dado suficiente liquidez, simplemente marco posiciones a mitad; el último precio de negociación puede ser altamente variable.