- Inicio
- Definición de naturalismo
Naturalismo
Significado de "naturalismo", definición de "naturalismo":
- - m. Doctrina filosófica que considera a la naturaleza y a todos sus elementos la única realidad existente.
- - Movimiento literario que surge en Francia en la segunda mitad del siglo xix y que,partiendo del realismo,trataba de reproducir la realidad objetivamente,especialmente los aspectos más desagradables.
- - Tendencia artística que representa la realidad alejándose del idealismo y del simbolismo.
Otras palabras consultadas