La matriz de transición de una cadena de Markov describe las probabilidades de pasar de un estado a otro en un paso de tiempo. Formalmente, se define como sigue:
Sea una cadena de Markov con un conjunto finito de estados . La matriz de transición es una matriz cuadrada de donde cada elemento representa la probabilidad de transición del estado al estado en un solo paso de tiempo. Esto es:
donde es la Probabilidad condicional de moverse al estado dado que la cadena está actualmente en el estado .
La matriz de transición satisface que cada
- para todo .
- Cada fila de la matriz suma 1, para todo . (La suma de las probabilidades de transición desde cualquier estado hacia todos los posibles estados siguientes es 1).