
Unscharfer Begriff für Western, deren Handlung nach dem amerikanischen Bürgerkrieg spielt und in denen die Rolle der amerikanischen Armee im Westen thematisiert wird. Diese Phase der amerikanischen Geschichte ist einer breiteren Öffentlichkeit durch Hollywoods Geschichtsklitterung und...
Gefunden auf
https://filmlexikon.uni-kiel.de/index.php?action=lexikon
Keine exakte Übereinkunft gefunden.