No hay mucha en la escala común. Para el usuario medio, son intercambiables.
¡No olvide que los monitores más baratos no tienen altavoces! Y no tienen módulos DVB, por lo que la televisión es sólo una opción, si usted tiene un set-top-box (la mayoría de los proveedores de servicios de televisión dan uno, por lo que no suele ser un problema)
Ventajas de un televisor:
Tamaño. Suelen ser más grandes y un poco más luminosos, por lo que la gente suele verlos a distancia. En el caso de un televisor 4K más nuevo, que se puede ver desde una distancia más cercana (para ver el 4K), ¡maneja el brillo con cuidado! Hoy en día los monitores son cada vez más grandes también, así que esto ya no es un gran problema.
HDR. Los paneles de 10 bits (HDR10) y 12 bits (Dolby Vision) dan unos colores increíblemente más vivos. Según mis pruebas, no hay muchas diferencias entre HDR10 y un panel estándar de 10bit. Tal vez el brillo es mejor en el estándar HDR10, pero en el caso de los colores, no pude ver ninguna diferencia (jugando 10bit HDR contect por supuesto de lado a lado). Así que sí, HDR han una ventaja en el campo de la TV.
Ventajas de un monitor:
Precisión del color. Especialmente con un mejor panel IPS. Los televisores suelen utilizar el submuestreo de croma 4:2:0, que es bueno para las tareas habituales, y utiliza menos marca que el submuestreo de croma 4:4:4 de imagen perfecta, con el que se utilizan la mayoría de los monitores. No es que los televisores no sean capaces de realizar el submuestreo de croma 4:4:4, sino que están calibrados principalmente para contenidos 4:2:0 (utilizados incluso por los discos bluray HDR 4K). Y la lectura de textos (navegar por páginas web, crear documentos) es un poco más fácil para el ojo con un monitor. Es un poco difícil de explicar cómo una pantalla HDR podría ser menos precisa en cuanto al color que un monitor, y de nuevo, no se trata de cuántos colores conocen, sino de la precisión con la que se muestran.
Tasa de refresco. Sí, los televisores pueden anunciarse con altas tasas de refresco (120 o 240hz normalmente), pero eso es una mentira. Una mentira muy sofisticada, pero una mentira. Eso no es una tasa de refresco real. Al igual que la relación de contraste dinámica NO es la relación de contraste, o 8bit+AFRC no son 10bit reales. Son cosas bonitas, sobre todo el AFRC... es realmente como 10bit para mis ojos... Pero no es lo real.
Sólo los monitores tienen tasas de refresco realmente altas ahora mismo, que yo sepa. Así que en caso de que quieras 144hz o 240hz, necesitarás un monitor.
Sincronización adaptativa. Así que, en caso de que quieras utilizar esa tasa de refresco loca que tienes... o incluso no luchar con v-sync en 60hz. La única manera es la sincronización adaptativa. Esto necesita un poco de explicación, ya que la gente normalmente se equivoca.
Así que... el número de fotogramas que tu ordenador envía a tu TV tiene que ser el mismo que tu tasa de refresco. En el escritorio, el sistema operativo se encarga de esto.
En el modo de pantalla completa (especialmente en los juegos) esto podría no ser el caso. Por ejemplo, sólo puedes dominar 45 fps normalmente en el juego en tu monitor de 60hz. Resultado: lágrimas en la pantalla. Para la tasa de fps por encima de la tasa de refresco... es fácil, sólo tienes que limitar la tasa de refresco (60 normalmente). (vsync lo hace automáticamente) Pero por debajo de eso....
Solución:
1 - Vive con ello. En caso de que seas un jugador profesional, probablemente quieras tantos FPS como puedas conseguir para que tu tiempo de reacción sea el mejor.
2 - V-sync. Una solución de software, que sincroniza tus FPS con la frecuencia de refresco. Suele esperar a que se renderice cada imagen, y mientras tanto sólo envía el último fotograma completo. Esto significa que si tu FPS cae incluso un poco por debajo de 60fps, tu FPS EFECTIVO (que ves en la pantalla) será exactamente la mitad de eso (30fps, y 15 fps en consecuencia). Al menos sin el triple búfer, es decir. Con triple buffering estos números serán 60, 40 y 20fps. Lo que suele ser mejor.
Pero todavía no es bueno para un jugador profesional.
3- Sincronización adattiva. Con este método soportado por el hardware tu monitor cambiará su frecuencia de refresco sobre la marcha de acuerdo con la tasa de FPS que obtiene. Funciona junto con v-sync, por lo que v-sync limitará el límite, en caso de que los fps sean mayores que la tasa de refresco. El monitor funcionará perfectamente en el límite de sincronización adaptable (40-120hz por ejemplo), y por debajo de eso es vsync de nuevo.
Ahora mismo hay 2 tecnologías para esto.
-Freesync. Es la más soportada. (ya que es... bueno Libre 😀 ) Fue desarrollada por AMD, y es de uso libre para cualquiera. Sin derechos de autor.
-G-Sync. Solución de nVidia. Solución propietaria. Los monitores G-Sync son más caros, y creo que sólo funciona con una conexión DisplayPort. (AMD tiene algún tipo de solución para HDMI también)
Así que como puedes suponer, la Sincronización Adaptativa es un Must-Have para un jugador.
Así que... he usado televisores como monitores en el pasado, sobre todo para probarlos. Para el usuario medio funcionará bien. Así que en caso de que no necesites más que navegar en general, ver películas, estarás bien con un televisor.
Pero incluso en 2017 (bueno, sólo he usado televisores lanzados en 2016 😀 ), la imagen de un buen monitor es mejor, en el mismo precio que un televisor.
En caso de que trabajes con imágenes profesionalmente (edición de imágenes o vídeos en general), deberías conseguir un monitor. La precisión del color es simplemente mejor en el que.
En caso de que seas un jugador, necesitarás un monitor con Adaptive Sync. (Como nVidia se niega a implementar FreeSync, a pesar de que podrían... libremente... tendrás que emparejar tu monitor con la tarjeta de vídeo sin embargo.)
Para fines de cine, un televisor es simplemente perfecto. Usando el submuestreo de cromo 4:4:4 (que tu ordenador hace por defecto, no te preocupes) incluso leer es bastante cómodo en una TV también.
En el futuro incluso estas diferencias pueden desaparecer.