Denegrir vem do latim denigrare, palavra que em sua origem romana não fazia referência nenhuma à cor de pele.
Denegrir é um verbo que caracteriza, em um sentido figurado, a ação de difamar a reputação de alguém. Esta ação se refere ao fato de manchar a boa imagem de alguém ou de uma instituição, através de atitudes ou declarações.
Nenhum comentário:
Postar um comentário