Miércoles, 19 de diciembre de 2012
Hay quienes piensan que Estados Unidos impone su cultura al resto del mundo a través de Hollywood. Pero la historia es al revés. El resto del mundo es el que está transformando la industria del cine en Estados Unidos. Vea la explicación en mi más reciente reportaje para el programa de TV de Moisés Naím (1,11):
Share