Los 3 probablemente utilizan un clúster de superordenadores que ejecutan una variación de Linux. Especializados en el renderizado en la nube/red.
El truco está en que muchos de ellos (al menos Dreamworks) utilizan granjas de renderizado comerciales, en lugar de poseer y mantener el hardware ellos mismos: en realidad es más barato para ellos de esa manera, ya que sólo renderizan durante unos meses para cada película; es decir, ni siquiera se acercan a la constancia. Y cuando renderizan, necesitan cantidades simplemente insanas de potencia computacional bruta.
Para ser más específicos sobre el hardware de las granjas de renderizado, las escenas de largometrajes de hoy en día ocupan volúmenes extremadamente grandes de RAM, lo suficiente como para que básicamente no se pueda ejecutar en una GPU. Por lo tanto, muchos de ellos sólo hacen el previz y la iluminación en las GPU de sus estaciones de trabajo, con geometría muy simplificada y texturas a escala reducida, y luego renderizan las tomas finales en la CPU.
En cuanto al sistema operativo, creo que es probable que una granja de renderización pueda utilizar una versión despojada y modificada de Linux, optimizada para minimizar la sobrecarga y optimizar el rendimiento de la red sin sacrificar completamente la seguridad.
Las películas tienen un presupuesto lo suficientemente grande como para gastar mucho dinero en software propietario, e incluso así optimizan y delegan ciertos trabajos a otras empresas cuando es más eficiente.