martes, octubre 22, 2013

¿Qué es el nazismo?

El nazismo es uno de los movimientos fascistas que se desarrollaron y tomaron el poder político después de la primera Guerra Mundial. El nazismo fue uno de los fenómenos históricos más complejos y oscuros del siglo XX, nacido en la Alemania de entreguerra y encumbrado bajo el poder de un personaje racista y altamente exterminador como lo fue Adolf Hitler.

No hay comentarios:

Publicar un comentario