Definición de Trabajo Social
DEFINICIÓN
La profesión de Trabajo Social promueve el cambio social, la resolución de problemas en las relaciones humanas y el fortalecimiento y la liberación del pueblo para incrementar el bienestar. Mediante la utilización de teorías sobre comportamiento humano y los sistemas sociales, el Trabajo Social interviene en los puntos en los que las personas interactuan con su entorno. Los principios de los Derechos Humanos y la Justicia Social son fundamentales para el Trabajo Social.
No hay comentarios:
Publicar un comentario