WesternDer Western ist ein Kino-Genre, in dessen Mittelpunkt der zentrale us-amerikanische Mythos der Eroberung des (wilden) Westens der Vereinigten Staaten im neunzehnten Jahrhundert steht.Zurück