¿Por qué un monitor de ordenador tiene un ajuste manual para la fase y la frecuencia de reloj en la configuración del monitor?

En los viejos tiempos las tarjetas de video enviaban señales analógicas a un CRT analógico. El CRT no tenía píxeles en sí, por lo que no necesitaba una señal de reloj, simplemente mostraba continuamente cualquier señal de giro analógica que llegara.

Cuando llegaron las pantallas planas, hubo un problema. La pantalla tiene píxeles discretos, por lo que las señales analógicas tenían que ser muestreadas y digitalizadas. El problema es que no había señal de reloj. Si la pantalla muestreaba la señal a un ritmo cercano pero no exacto, muestrearía la señal parte del tiempo en el centro de cada nivel de tensión recibido, pero al final, al girar sobre la señal, muestrearía en la transición entre los valores, por lo que se obtendrían datos erróneos y colores raros o borrosos. Por eso había ajustes finos para la frecuencia y la fase. La mejor manera de ajustarlos era escribir una larga línea de caracteres ||||||||||. Si la frecuencia y la fase se ajustaban un poco, se veía un patrón de moiré en el que unas pocas barras estaban bien, pero las siguientes se volvían borrosas, y luego empezaban a mejorar de nuevo. Se movía el control de frecuencia hasta que las partes buenas se alargaban más y más hasta que abarcaban toda la pantalla, entonces se ajustaba la fase para que todas las barras fueran nítidas, no borrosas.

Esto es en su mayor parte historia antigua ya que la mayoría de las tarjetas de vídeo tienen ahora salidas digitales, ahora con un reloj, por lo que el monitor no tiene que adivinar.