Dez motivos para não medir impacto – e o que fazer no lugar

By on 05/09/2018

É comum ouvirmos que programas / projetos sociais que fazem avaliação de impacto têm muito mais chances de obter financiamentos.  Porém no caso das organizações do terceiro setor  raramente,  ou quase nunca,  a avaliação de impacto é o método adequado. Avaliações de impacto exigem procedimentos estatísticos complexos (pesquisa experimental), nada amigável aos não-iniciados no método, além de serem   dispendiosas e demoradas (podem levar anos!) para produzirem os seus achados.

Daí a importância do artigo ´Ten reasons not to measure impact – and what to do instead`, dos professores Mary Kay Gugerty (University of Washington) e Dean Karlan (Northwestern University), que acaba de ser publicado na Stanford Social Innovation Review (2018). A seguir apresento os principais pontos abordados no texto.

Para os autores, o problema está em que o avanço do uso da tecnologia de informação acarretou custos decrescentes da coleta e análise dos dados e, com isto, houve um apelo cada vez maior por medições de impacto. Essa compulsão por demonstrar impacto acabou gerando desperdício de recursos, comprometimento dos esforços de monitoramento em favor das avaliações de impacto, e ainda contribuiu para o crescimento de métodos pobres e incorretos de demonstrar impacto. E o que é mais grave, avaliações de impacto mal feitas acabam por produzir resultados errados ou enganosos, induzindo a tomadas de decisão injustas acerca dos projetos. Com isso, bons projetos podem acabar sendo descontinuados, e maus projetos seguirem sendo financiados.

Os dez motivos para não avaliar impacto

Gugerty e Karlan enumeram as dez razões, ou situações de projetos, em que as avaliações de impacto não se justificam:

  1. Não é a ferramenta adequada: excelentes perguntas avaliativas, porém abordagem errada. Perguntas relacionadas à focalização do projeto (público beneficiário adequado) ou à adequação dos serviços oferecidos não precisam ser respondidas com avaliação de impacto. São objeto de um bom monitoramento.
  2. Não agora: o desenho do programa ainda não foi completado. Antes de pensar em avaliar impacto, é preciso verificar se a “teoria da mudança” proposta é válida para um dado contexto social. Pois se as estratégias propostas não forem bem aceitas pelo público-alvo, não faz sentido fazer avaliação de impacto.
  3. Não agora: a implementação do programa ainda não foi completada. Suponha que a “teoria do programa” foi definida e os seus pressupostos testados, porém a implementação foi falha, e não se deu de acordo com o planejado. A avaliação de impacto só se justifica depois do monitoramento. Antes disso, representa má escolha e desperdício de recursos.
  4. Não agora: já é muito tarde. Muitas vezes a decisão de fazer avaliação de impacto só vem depois que o projeto já está sendo implementado. Aí já ficou tarde demais para construir aleatoriamente os grupos de controle e de tratamento: a comparabilidade entre os dois grupos torna-se questionável e os resultados da avaliação de impacto pouco convincentes.
  5. Não é viável: os recursos são muito limitados. Quando os recursos são limitados, isso pode afetar a avaliação de impacto de duas maneiras. Primeiro, porque se a escala do projeto é muito pequena, não se justifica medir impacto (esse dinheiro poderia ser melhor aplicado para ajudar mais pessoas).  Segundo, a avaliação de impacto tende a ser mal feita, com uma implementação pobre dos rigorosos protocolos de avaliação. A alternativa é não fazer avaliação de impacto; e buscar na literatura insights sobre a efetividade da estratégia adotada, e também usar os próprios dados administrativos para responder às perguntas de impacto.
  6. Não é viável: os efeitos indiretos são difíceis de serem identificados, porém críticos à teoria da mudança. Quando os efeitos indiretos não podem ser adequadamente estimados, e quando eles tendem a ser grandes, então a avaliação de impacto não representa uma boa opção avaliativa. Porque as conclusões da avaliação tenderão a ser incorretas e enviesadas, pois o verdadeiro impacto ficará mascarado por esses efeitos indiretos (não medidos), e daí os recursos para avaliação terão sido desperdiçados.
  7. Não é viável: a implementação do programa é muito caótica. Algumas situações não são passíveis de avaliação de impacto. É o caso dos projetos que convivem com situações de alívio de desastres, cuja implementação tem que ir mudando para se adaptar às circunstâncias em evolução. Daí torna-se complicado, dispendioso e até pouco ético manter grupos de experimento e de controle nesses ambientes conturbados, impedindo assistência a pessoas que tanto necessitam. A alternativa é acompanhar a implementação das atividades e coletar os dados de gestão que contribuem para fortalecer o programa.
  8. Não é viável: a implementação se dá em âmbito muito elevado. Suponha as campanhas de advocacy que normalmente têm níveis elevados de focalização (países ou regiões), em que fica inviável ou até “ridículo” compor os grupos de controle. Então são situações que também não são passíveis de avaliação de impacto. A alternativa é acompanhar a implementação e os dados de gestão, para verificar se as mudanças previstas estão ocorrendo.
  9. Não vale a pena: nós já sabemos a resposta. Em alguns casos, a resposta sobre se o programa funciona já é conhecida, a partir de um outro estudo ou série de estudos. Mas mesmo assim, os doadores ou os conselheiros exigem que seja feita a avaliação de impacto para checar os seus investimentos em particular. Então, acabam sendo feitas avaliações de impacto desnecessárias, apenas para se “ter a certeza”. A alternativa é resistir a essas demandas de avaliação de impacto, usando bons argumentos: que a “teoria da mudança” dos outros programas avaliados é semelhante ao do nosso programa; e que as características do contexto social desses programas avaliados são também semelhantes ao nosso programa. Então, nesses casos, basta que seja feito o monitoramento para verificar se a implementação foi feita de acordo com o que estava previsto no modelo do programa.
  10. Não vale a pena: não há ganho na generalização do aprendizado. A avaliação de impacto só deve ser conduzida se ela ajuda a determinar o porquê uma coisa funciona, não apenas se As avaliações de impacto não devem ser conduzidas se não  puderem propiciar conhecimento generalizável  sobre a questão do “porque” – ou seja, se elas forem úteis apenas para uma dada organização e apenas para uma dada implementação (reforça o motivo 5). Essa regra se aplica a projetos com baixo poder de serem escaláveis.  A alternativa para o caso de um programa que tenha um potencial pequeno de replicação ou escalabilidade é avaliar a sua implementação, de modo a verificar se o seu desempenho foi de acordo com o que estava planejado.

 Como as organizações podem desenvolver sistemas adequados de coleta de informação?

 Para os autores foi essa recente “corrida” para a medição de impacto que acabou por tirar o foco de tarefas triviais, porém cruciais, como monitorar a implementação e melhorar os projetos sociais.

O que ocorre é que como os dados do monitoramento não estão sendo devidamente conectados ao processo de gestão dos projetos , daí o monitoramento acaba sendo percebido pelos gestores como tendo pouca (ou nenhuma) utilidade.

Da mesma maneira, as demandas externas por impacto (dos doadores ou dos conselheiros) não dão o valor devido às informações sobre a implementação dos projetos, porque esses dados geralmente não estão conectados com a teoria da mudança. E sem essa conexão esses atores tendem a não ver utilidade nos dados de implementação.  Para Gugerty e Karlan,  sistemas adequados  devem ser capazes de gerar as informações para mostrar aos doadores  o progresso dos projetos na direção do impacto.

Os sistemas adequados de dados  devem ter três características básicas: coleta os dados certos; reporta os dados em formato útil e no tempo adequado; e cria na organização  capacidade e comprometimento para usar os dados.   Em outras palavras, serem sistema de dados “acionáveis”, isto é,  que estão prontos para serem usados para a gestão das organizações.

São cinco os tipos de dados para o monitoramento: financeiro (receitas e despesas nos níveis administrativo e programático); implementação propriamente (atividades e produtos);  focalização (quem são os reais participantes do projeto?); engajamento (como está sendo a interação dos participantes no projeto?); feedback (pontos fortes e fracos do projeto sob a perspectiva dos participantes).

Um outro aspecto fundamental relacionado a esses sistemas é empoderar (capacitar e comprometer) os  tomadores de decisão a utilizarem os dados quando forem tomar as suas decisões e depois para o acompanhamento (das decisões). Para isto é necessário que os dados sejam compartilhados amplamente dentro da organização e no tempo adequado (e não é preciso tecnologia de informática complexa); que haja discussões periódicas envolvendo funcionários e gerentes;  que haja o compromisso  das equipes em informarem o que está indo bem e o que não está; e que os dados gerados pelo sistema consiga responder aos  muitos questionamentos que forem surgindo na organização (accountability).

Idéia central do artigo

Um sistema adequado de dados na organização  coleta os dados certos e dialoga/interage bem com a ´teoria da mudança` e com a gestão da organização. Tal sistema se torna capaz de fornecer as evidências sobre se o projeto está indo na direção do impacto, como está sendo conduzida a sua implementação e o que é preciso fazer para melhorá-lo. Na grande maioria das organizações do terceiro setor não é preciso “provar” impacto, basta mostrar as evidências do impacto. Já nas organizações maiores, quando elas reunirem as condições adequadas, aí sim elas devem fazer as avaliações de impacto. Concordo plenamente com os autores!!

TAGS
RELATED POSTS

LEAVE A COMMENT

MARIA CECÍLIA PRATES RODRIGUES
Rio de Janeiro - Brasil

Maria Cecília é economista e mestre em economia pela UFMG, e doutora em administração pela FGV /Ebape (RJ). A área social sempre foi o foco de suas pesquisas durante o período em que esteve como pesquisadora na FGV , e depois em seus trabalhos de monitoria, consultoria, pesquisa e voluntariado.