A grandes rasgos, podemos expresar la diferencia entre un proceso de Markov y una martingala de la siguiente manera:
Un proceso de Markov es uno para el cual acondicionado de su valor futuro en su historia es la misma acondicionado de su valor futuro a su valor presente, por lo que $E(h(X_t)\,|\,X_u,\,u\leq s)=E(h(X_t)\,|\,X_s)$, para cualquier función apropiada $h$;
Una martingala es un proceso cuyo futuro que se espera de valor igual a su valor presente, cuando condicionado por su historia, por lo que $E(X_t\,|\,X_u,\,u\leq s)=X_s$,
para todos $s\leq t$. (Tenga en cuenta que estoy tomando enormes libertades ignorando las condiciones de integrabilidad y otras advertencias importantes.)
En palabras, podríamos decir que los procesos de Markov tienen la propiedad de que sus historias no proporciona ninguna información en exceso de la información contenida en sus valores presentes. Del mismo modo, podríamos decir que martingales son los procesos por los cuales la mejor estimación de su valor futuro es su valor actual.
Estos dos conceptos tienen una historia muy interesante en la Economía Financiera. Por ejemplo, la Hipótesis del Mercado Eficiente efectivamente afirma que los precios de los activos procesos de Markov. Por otro lado, gran parte de los Activos de la Teoría de Precios que caracteriza a valor razonable para los arriesgados de valores en términos de martingales, de una manera o de otra.
Para responder a su pregunta, aunque tanto la condición de Markov y la martingala condición se expresa en términos de condicionales expectativas, en realidad son bastante diferentes nociones. En particular, los procesos pueden ser (1) procesos de Markov y martingales; (2) procesos de Markov, pero no martingales; (3) martingales pero no procesos de Markov; y (4) ni martingales ni de Markov del proceso. Un buen ejercicio es construir ejemplos de los cuatro tipos de proceso de la lista anterior (foco en tiempo discreto, en lugar de en tiempo continuo).
Geométrico, el movimiento Browniano es un proceso que $X$ se caracteriza por la ecuación diferencial estocástica
$$d X_t=\mu X_t\,dt+\sigma X_t\,d B_t,$$
para todos $t\geq 0$, donde $B$ es un estándar de movimiento Browniano. Siempre es de Markov (por cierto, esto explica por qué el precio de una opción por escrito en una seguridad que sigue un movimiento Browniano geométrico es una función del precio actual de la seguridad, y no a su precio de la historia). Sin embargo, $X$ es sólo una martingala cuando $\mu=0$ (en cuyo caso nos referimos a ella como driftless movimiento Browniano geométrico.