Revolución en Hollywood

Miércoles, 19 de diciembre de 2012

Hay quienes piensan que Estados Unidos impone su cultura al resto del mundo a través de Hollywood. Pero la historia es al revés. El  resto del mundo es el que está transformando la industria del cine en Estados Unidos. Vea la explicación en mi más reciente reportaje para el programa de TV de Moisés Naím (1,11):

 

email

Share