Para calcular una beta, yo estaba usando la fórmula siguiente(teniendo en cuenta los $ra$, así como el rendimiento de $a$ e $rb$, así como el rendimiento de $b$):
$$ \beta = { cov(ra, rb) \más de var(rb)} $$
Como desarrollador de software, he programado una función que devuelve este valor. Cuando la creación de pruebas, he creado algunos datos simulados, pensando que habría una versión beta de $0.5$:
$$ un = [0.1, 0.2, 0.4, 0.8, 1.6] $$
$$ b = [0.1, 0.4, 1.6, 6.4, 12.8] $$
Que se traducirá en:
$$ ra = [0.6931471805599453, 0.6931471805599453, 0.6931471805599453, 0.6931471805599453] $$
$$ rb = [1.3862943611198906, 1.3862943611198906, 1.3862943611198906, 1.3862943611198906] $$
Así, cuando el cálculo de $\beta$, la varianza y la covarianza devuelto $0$, lo que resultó en un $NaN$ en Java. Sé que este es un caso muy raro, pero aún así a mí me plantea dos preguntas:
1) ¿hay algún convenio en el que se $\beta$ valor cuando la varianza sería $0$?
2) Es el valor de $\beta$ aún relevante en casos como ese?
EDITAR: 3) En un software que puede utilizar este resultado para mostrar al usuario y tal vez utilizar en otras operaciones, sería aceptable para mostrar los datos como 0? O sería engañoso decir esto?