Supongamos que vendo helados y quiero saber si cobro \$1 or \$ 2 recauda más ingresos. Para ello, realizo un experimento de precios aleatorios. En concreto, cada día lanzo una moneda al aire y utilizo esa moneda para determinar si el precio del día debe ser \$1 or \$ 2.
Mi pregunta es cómo analizar los resultados de este experimento. Lo más conservador sería tratar cada día como un punto de referencia y comparar los ingresos de cada día con los de cada día. \$1 days and \$ 2 días. Eso está bien, pero encarece mucho el experimento. De hecho, para detectar diferencias razonables con niveles convencionales de potencia, habría que realizar el experimento durante al menos varios cientos de días.
El enfoque menos conservador sería considerar los datos como una serie de interacciones (individuales) a nivel de cliente. En concreto, se agruparían todas \$1 offers, pool all \$ 2 ofertas, y comparar la proporción de ofertas aceptadas. Entonces se tendría un tamaño de muestra muy grande, aunque fuera un número pequeño de días. (Por ejemplo, imagine que sólo realiza el experimento durante un par de días, pero que ofrece un helado a miles de clientes todos los días). A continuación, se podrían comparar los dos grupos mediante una prueba t (o, de forma equivalente, mediante regresión lineal). Sin embargo, esto subestimará los errores estándar, ya que no tiene en cuenta el hecho de que las observaciones de un día determinado estarán correlacionadas (por ejemplo, debido a los efectos meteorológicos).
Creo que un "enfoque intermedio" es posible y deseable. Por ejemplo, se podrían analizar los datos a nivel de cliente, pero agrupar los errores estándar a nivel de día. ¿Estoy en lo cierto? (¿Y es realmente diferente de lo que yo llamo el enfoque "más conservador"?) Además, ¿hay algún libro de texto donde pueda aprender más sobre estas cuestiones?