Os sindicatos são organizações de representação dos interesses dos trabalhadores, criadas para compensar o poder dos empregadores na relação contratual sempre desigual e reconhecidamente conflituosa entre capital e trabalho. Nascem na primeira metade do século XIX, como reação às precárias condições de trabalho e remuneração a que estão submetidos os trabalhadores no capitalismo.
Ao final do século XIX, os sindicatos obtiveram reconhecimento institucional nos principais países industrializados. Desde então, têm exercido papel fundamental na organização da classe trabalhadora para a luta por uma sociedade justa e democrática, pressionando pela ampliação dos limites dos direitos individuais e coletivos ainda hoje estreitos em muitos países, entre os quais o Brasil.
Clique aqui e leia nota técnica do DIEESE.