
Amerikanischer Film, Geschichte des Films in den Vereinigten Staaten von Amerika. Die USA sind seit den zwanziger Jahren des 20. Jahrhunderts die dominierende Filmnation der Welt. In Hollywood entstanden ab etwa 1910 eine ganze Reihe großer Produktionsfirmen, die in den folgenden Jahrzehnten mit ihrem Erzählkino u...
Gefunden auf
https://www.enzyklo.de/Lokal/40014
Keine exakte Übereinkunft gefunden.