western United States английский

Значение western United States значение

Что в английском языке означает western United States?

western United States

Дикий Запад (= West) the region of the United States lying to the west of the Mississippi River

Синонимы western United States синонимы

Как по-другому сказать western United States по-английски?

western United States английский » английский

West

Возможно, вы искали...