El título es similar al de la pregunta a la que me remitieron aquí que fue respondida por Lehalle ¡él mismo!
Estoy tratando de implementar el modelo Gueant-Lehalle-Tapia que es como llegué a esta respuesta donde Lehalle se refiere a otro artículo de Sophia Laruelle (aquí, traducción al inglés rudimentaria por IA: aquí) donde en la Sección 3.1 explica cómo primero estimar el lambda y luego utilizar regresión para estimar A y K en las fórmulas de GLT. Lo que no entiendo es cómo lo haría en un conjunto de datos reales. Lo que sugiere es utilizar un estimador tipo Nelson-Aalen dentro de un intervalo de tiempo de [0, T] para calcular el lambda. Pero luego en el siguiente párrafo dice que T=15 transacciones (Ref. Figura 1). ¿Se supone que debo muestrear basándome en el tiempo o en los ticks? Y entonces no entiendo cómo usaría esto para calcular lambda para diferentes distancias como sugiere en la figura.
Al intentar responder esto, me encontré con esta biblioteca hftbacktest y la pregunta relacionada del autor Naz aquí sobre este problema en particular. Y parece ignorar lo que sugiere Sophia y en cambio, asumiendo que las llegadas son un proceso de Poisson, modela los tiempos entre llegadas y ajusta como exponencial para encontrar el lambda.
¡Estoy bastante confundido! Para resumir mi pregunta, todo lo que quiero saber es que si tuviera datos de ticks de operaciones de un día, ¿cómo llegaría a la Figura 1 de Sophia en la Sección 3.1 del artículo? Muchas gracias.
PD: Un primer año de Quant completamente nuevo en market making. Disculpen si cometí algún error o no expliqué algo necesario.