In wievielen US-Filmen/Serien wird eigentlich Deutschland immer noch als böses Land dargestellt.
Vor kurzem lief eine Serie namens "Die Buschpiloten", bei der das Leben und die Arbeit von Buschpiloten in Botswana in Afrika geschildert wurde. Die Piloten, die dort einen Job suchen, müssen dort wie die Bittsteller leben und um Arbeit betteln, bis wieder ein Job frei wird und dann eine harte Auswahl beginnt. Dabei entscheidet auch die Büroleiterin mit, die grundsätzlich keine Deutschen mag. Die werden sofort zu Beginn der Auswahl aussortiert und sie begründet das mit allerlei Vorurteilen über die Deutschen.
Interessant sind auch die Aussagen der amerikanischen Schauspieler nach den Besuchen bei "Wetten das..." in den letzten 2 Jahren. Da wird das Erlebte gerne mit entsprechenden Vorurteilen vermischt und zur besten Sendezeit in den Talkshows von sich gegeben. So schürt man Vorurteile.
Grundsätzlich muss man aber leider auch sagen, dass in amerikanischen Filmen - gerade in Actionfilmen - es oft nur sehr platte Darstellungen von bestimmten Ländern gibt. Wenn man den Inhalt eines zweistündigen Kinofilms in einem einzelnen Satz ausdrücken kann und dabei nichts auslässt, dann kann man keine tiefgreifende Darstellungen erwarten. Das ist aber leider kein Exklusivproblem der Amerikaner. Das können die Deutschen umgekehrt auf anderen Ebenen genauso. Leider.