El objetivo de la regresión es tener en cuenta la varianza en $y$ . Si es capaz de hacerlo, entonces sus predicciones de la media condicional de $y$ (condicionada a los valores de sus características) será mejor que si se predice $\bar y$ siempre. Cuando $R^2$ es positivo, aunque sea ligeramente, significa que se está cumpliendo ese objetivo (suponiendo una validación de modo para examinar si hay sobreajuste). Tienes un modelo mejor que el del equipo de quant que siempre predice $\bar y$ .
Incluso en los casos en los que $R^2$ carece de su interpretación como la proporción de la varianza explicada un valor positivo (en un modelo que ha demostrado, de una manera u otra, no sufrir un mal sobreajuste) indica que la cantidad por la que su modelo falla es, en cierto sentido, menor en promedio de lo que sería si siempre predijera $\bar y$ .
Determinar si eso es suficiente para obtener beneficios será una historia diferente que implicará las cantidades de dinero en juego, así como cuestiones externas a la predicción del precio del activo, como las comisiones de negociación. Esto entra en la importancia práctica del rendimiento de su modelo, que podría ser nulo si no puede ganar dinero, incluso si el modelo, como muestra algo como una prueba F en el entorno OLS, tiene un $R^2$ que es significativamente mayor que $0$ .
Un peligro que veo con $R^2$ es que puede hacernos pensar como las notas en la escuela, donde todos queremos modelos de grado A con $R^2>0.9$ . Para los problemas difíciles, eso podría ser una norma ridícula, y podría darse el caso de que $R^2=0.016=1.6\%$ es bastante bueno (piense en algo como el concurso de Putnam, donde incluso un punto de los posibles $120$ es bastante bueno). Por el contrario, para una tarea fácil, $R^2=0.9$ podría ser un rendimiento más bien pedestre, a pesar de parecer un sobresaliente en la escuela.