La matriz de transición de una cadena de Markov describe las probabilidades de pasar de un estado a otro en un paso de tiempo. Formalmente, se define como sigue:

Sea una cadena de Markov con un conjunto finito de estados . La matriz de transición es una matriz cuadrada de donde cada elemento representa la probabilidad de transición del estado al estado en un solo paso de tiempo. Esto es:

donde es la Probabilidad condicional de moverse al estado dado que la cadena está actualmente en el estado .

La matriz de transición satisface que cada

  • para todo .
  • Cada fila de la matriz suma 1, para todo . (La suma de las probabilidades de transición desde cualquier estado hacia todos los posibles estados siguientes es 1).