"BBC Mundo" realizó un reportaje con fines educativos tras la absurda polémica de si los nazis eran de izquierda... Definitivamente nunca lo fueron. ¿Los nazis eran de derecha? es una ligereza así calificarlo, porque desde que Hitler tomó la batuta se transformó en una agrupación radical de extrema derecha que velaba por la continuación de la Realpolitik alemana del expansionismo implantada en el pangermanismo. El nazismo constituyó en Europa el último ensayo imperialista (en el sentido estricto del término) por medio de la guerra.
|
etiquetas: socialista , hitler