Bueno, tengo algunas respuestas parciales a eso. Nadie lo sabe con exactitud, por supuesto. Si no, lo más probable es que la solución se aplicara inmediatamente. Y si los informáticos ceden, se les presionaría. Pero tal y como están las cosas no están claras y por eso la situación sigue siendo confusa. Además, no das detalles sobre las previsiones de los modelos informáticos que estás considerando en tu comparación. Por lo tanto, voy a dar algunos datos a continuación que espero sean correctos.
En primer lugar, hay que ver que hay esencialmente dos tipos de modelos: los modelos globales que funcionan para todo el planeta y los modelos locales que utilizan las condiciones de contorno de un modelo global para su forzamiento. Los modelos globales utilizados por los Centros Nacionales de Predicción Medioambiental y el Centro Europeo de Predicción Meteorológica a Medio Plazo son el Sistema de Predicción Global (GFS) y el Sistema de Predicción Integrado (IFS) respectivamente. Estos modelos globales necesitan esquemas numéricos para sus ejecuciones, asimilación de datos (4DVAR) de mediciones (satélites, estaciones meteorológicas, radiosondas, etc.) que ayudan a mejorar las ejecuciones, superordenadores para sus ejecuciones, parametrización (modelización atmosférica) para sus procesos físicos (no todo se conoce en física), acoplamiento de modelos entre diferentes dominios (por ejemplo, olas y atmósfera). Ver la documentación del IFS CY38r1 para una descripción completa del IFS y los Centros Nacionales de Predicción Ambiental para una descripción del GFS.
Los modelos locales están restringidos a un área geográfica específica (digamos el Mar Mediterráneo, el Mar Adriático, etc.) donde se espera que se pueda conseguir una mayor resolución que el modelo global. El problema de los modelos locales es que suelen ser menos sofisticados que los modelos globales y que dependen de las condiciones de contorno de un modelo global para su ejecución. Ejemplos de modelos locales son el Weather Research and Forecasting Model (WRF) desarrollado por muchas agencias estadounidenses, el COSMO desarrollado esencialmente por el Servicio Meteorológico alemán y el ALADIN / AROME de Meteo France. Una lista más completa de modelos se encuentra en la wikipedia: Atmospheric model.
Entonces, tengo que decir que el conjunto más importante de datos utilizados por los modelos provienen de los satélites y están disponibles para todo el mundo (Los productos de datos del dispersómetro avanzado (ASCAT), los productos de datos QuikSCAT / SeaWinds, Jason-1, etc.). Las mediciones de las estaciones no siempre se comparten, pero lo importante es que no hay ninguna ventaja específica que tengan los estadounidenses para pronosticar el tiempo en Estados Unidos. Los métodos numéricos y físicos se publican en muchas revistas y están a disposición de todos. No hay realmente ningún secreto en eso.
Antes de comparar, también hay que decir que no he visto una comparación global entre los productos de previsión del NCEP y del ECMWF. El ECMWF acertó con el huracán Sandy pero quizás se equivocó en muchas otras cosas. No lo sé. Y si el ECMWF es mejor, ¿por cuánto? para qué variables? para qué regiones geográficas? para qué períodos? Todos esos detalles son importantes para acertar.
Así que lo que voy a enumerar como posibles razones a continuación son una serie de conjeturas. Es muy posible que me equivoque. Nadie lo sabe con exactitud.
1) Un factor es la calidad de los superordenadores utilizados, de la implementación numérica (una mejor programación en Fortran puede conseguir mucha diferencia de velocidad). La resolución actual del ECMWF es de 16km y este año están actualizando a un ordenador más rápido. NCEP parece estar en 27 km (ver National Climatic Data Center ) pero la resolución debería ser más fina en el futuro.
2) ECMWF parece más abierto; su página web es más clara y su modelo está bastante documentado. Está centralizado, sí, pero parece que hay un plan razonable. La parte americana parece estar enfrascada en una guerra entre muchos grupos diferentes (ver Fixing the National Weather Service's Computer Gapap).
3) IFS tiene acoplamiento a las ondas (con el modelo WAM) lo que da una mejor parametrización de la tensión superficial. No estoy seguro para GFS, su documentación es menos clara.
4) IFS está usando 4D-Var para la asimilación de datos, pero parece que todavía está en desarrollo para GFS. Se habla de Ensemble Kalman Filter, que, para mí, es computacionalmente más caro, pero más barato en la programación que 4D-Var.
5) La rugosidad de la orografía subgridscale se utiliza en ECMWF, pero no parece tan en GFS por lo que vi.
Al final este tipo de trabajo es un problema bien planteado (¿Cómo de exacto fue el pronóstico para mí?) que requiere muchas cosas muy difíciles de lograr juntos por los científicos de diversos orígenes (ingeniero informático, programador, físicos, teoría de sistemas dinámicos, etc.). Quizás ECMWF lo hizo mejor que GFS en los últimos tiempos, pero la situación puede cambiar muy rápido.
Otra diferencia: Las previsiones del GFS están disponibles de forma gratuita. Por el ECMWF tienes que pagar 250000$ anuales si quieres las previsiones. Por otro lado, si quieres hacer un estudio científico, puedes obtener gratuitamente previsiones pasadas sobre eventos pasados (y por tanto sin valor comercial): ERA-Interim para los últimos 40 años al menos.