Nie wszyscy Polacy lubią się do tego przyznawać, ale powiedzmy to otwarcie: u wielu z nas pojawia się dreszczyk emocji, kiedy oglądamy amerykański film lub serial i w pewnym momencie zostaje wspomniana Polska. Jak widzą nas hollywoodzcy twórcy? Czy jesteśmy w ich oczach wyłącznie gburami albo robotnikami pijącymi wódkę?