Ir para o conteúdo

O Team Health Check é uma técnica de medição da saúde do time, em que os integrantes podem avaliar colaborativamente aspectos pré-estabelecidos e relacionados ao seu contexto. Neste caso, eles foram agrupados em quatro domínios: técnico, organizacional, cultural e de negócio.

Preparação

O primeiro passo foi definir os domínios e as áreas a serem medidas. Também foram trazidas situações e exemplos para auxiliar nas avaliações do time.

DomínioÁreaEscala de avaliaçãoSituações
TécnicoFacilidade no deployÓtimo: a liberação é simples, segura, indolor e quase sempre automatizada.
Péssimo: entregar é arriscado, doloroso, exige muito trabalho manual e leva uma eternidade.
As ferramentas para entrega contínua estão adequadas?
O conhecimento é compartilhado com todo o time?
As comunicações antes e depois do deploy estão adequadas?
Domínio/ExperiênciaÓtimo: domínio do contexto de atuação, buscando soluções técnicas cada vez melhores. Alto nível de qualidade de entrega.
Péssimo: pouco domínio técnico e no contexto de atuação. Baixa qualidade nas entregas. Muito retrabalho.
São feitos muitos rollbacks em produção?
Quais fluxos críticos estão mapeados?
Existe monitoramento de testes?
Qualidade técnicaÓtimo: estamos orgulhosos da qualidade do nosso código! É limpo, fácil de ler e tem grande cobertura de teste.
Péssimo: nosso código é muito ruim, débitos técnicos e bugs estão fora de controle.
Existe cobertura ou métricas de testes?
Existe monitoria de logs?
É feita refatoração de código de tempos em tempos?
OrganizacionalProcesso adequadoÓtimo: a equipe se apropria do processo e o revisa continuamente em busca de melhorias.
Péssimo: nossa maneira de trabalhar não é adequada ao nosso contexto de trabalho.
A melhoria contínua é executada?
O time participa nas propostas de melhoria do processo?
É feita a promoção dos princípios da agilidade?
VelocidadeÓtimo: concluímos as coisas muito rapidamente. Sem esperas e sem atrasos.
Péssimo: parece que nunca terminamos nada. Ficamos presos ou somos interrompidos o tempo todo. Os itens de valor ficam presos nas inúmeras dependências.
Os itens são concluídos dentro da sprint planejada?
Existe entregas contínuas a cada sprint?
Há muitas mudanças de prioridades?
ApoioÓtimo: sempre temos bastante apoio e ajuda quando solicitamos.
Péssimo: continuamos “travando” porque não conseguimos o apoio e a ajuda que necessitamos.
Tem muita dependência de outros times?
Há apoio das lideranças?
CulturalAutonomiaÓtimo: temos liberdade para sugerir, questionar, e autonomia para decidir como fazer.
Péssimo: preferimos não opinar, temos receios, mesmo somente na presença do próprio time.
O time tem liberdade para propor mudanças?
As propostas são ouvidas?
São procuradas outras áreas para buscar soluções?
AprendizagemÓtimo: estamos aprendendo muitas coisas interessantes o tempo todo.
Péssimo: nunca temos tempo para aprender nada.
O conhecimento adquirido é repassado entre os integrantes?
Existe documentação?
NegócioPropósitoÓtimo: sabemos exatamente porque estamos aqui e isso nos deixa muito animados.
Péssimo: não temos ideia do porquê estamos aqui. Não há um panorama claro ou foco. Nosso suposto propósito é confuso e pouco inspirador.
Estamos em linha com os objetivos de negócio?
São feitas cadências com os stakeholders?
Existe visão de road map?
Entrega de valorÓtimo: entregamos de acordo com o ciclo de vida do produto. Dependências e priorizações estão bem claras.
Péssimo: muitas dependências travam nossas entregas de valor. Não conseguimos entregar valor aos stakeholders.
São conhecidos os problemas e objetivos de cada entrega?
Há equilíbrio entre as atividades de negócio e técnicas?
São feitos alinhamentos com os stakeholders?

No primeiro encontro, foi iniciada a coleta das avaliações e das tendências sobre cada área mencionada acima. Cada integrante votou uma vez sobre a escala de avaliação e uma vez sobre a tendência (para cada área), entendendo que, se a tendência ficar verde (conforme explicado na apuração de resultados), significa que ela está boa. Se a tendência ficar amarela, significa que está mediana, neutra ou andando de lado, e, se a tendência ficar vermelha, significa que ela está ruim, ou seja, está piorando em relação a como está atualmente. Neste momento, é fomentada a discussão, registrando os principais pontos trazidos pelo time sobre cada área analisada, gerando assim possíveis planos de ação de melhoria contínua.

Concluídas as coletas das avaliações e discussões, o primeiro encontro pode ser encerrado.

Apuração dos resultados

Com o auxílio de uma planilha, as avaliações verdes (boas) têm peso 5, as amarelas (médias) têm peso 3 e as vermelhas (ruins) têm peso 1. Havia 10 pessoas participando da dinâmica, então os cálculos ficaram conforme abaixo.

ÁreaFórmulaExplicação
Facilidade no deploy=((5*5)+(3*3)+(1*2))/10(Peso 5 x 5 Votos) +(Peso 3 x 3 Votos) +(Peso 1 x 2 Votos) /10 Participantes =3,60 (Avaliação final)
Velocidade=((5*3)+(3*5)+(1*2))/10(Peso 5 x 3 Votos) +(Peso 3 x 5 Votos) +(Peso 1 x 2 Votos) /10 Participantes =3,20 (Avaliação final)

Cada área avaliada também possui a sua respectiva tendência, na qual é evidenciado se a área está evoluindo/melhorando, se está estável/estagnada ou se está decaindo/piorando. A tendência pode ser verde (para cima), com peso 1, amarela (de lado), com peso 0 (zero), ou vermelha (para baixo), com peso -1. Abaixo, seguem os cálculos das tendências dos mesmos exemplos acima.

ÁreaFórmulaExplicação
Facilidade no deploy=((1*3)+(0*7)+(-1*0))/10(Peso 1 x 3 Votos) +(Peso 0 x 7 Votos) +(Peso -1 x 0 Votos) /10 Participantes =0,3 (Tendência amarela)
Velocidade=((5*3)+(3*5)+(1*2))/10(Peso 1 x 6 Votos) +(Peso 0 x 4 Votos) +(Peso -1 x 0 Votos) /10 Participantes =0,6 (Tendência verde)

O cálculo da tendência, ficando acima de 0,6, significa que é positiva (verde). Ficando entre 0 e 0,5, significa que a tendência é neutra (amarelo), conforme observado no Apoio. Ficando negativo, significa que a mesma é negativa (vermelho), conforme observado em Autonomia e Propósito.
Ainda poderíamos atribuir uma pontuação geral respectiva às avaliações do time, como se fosse um ranking do time, que neste caso seria 3,98. É a média dos somatórios das avaliações.

Apresentação dos resultados

No segundo encontro, foram trazidos os resultados já processados, exibindo-os em forma de gráfico, para facilitar a compreensão. As barras indicam as avaliações e as setas indicam as tendências.

Também foi apresentada a análise detalhada:

Conclusão

Uma boa prática é documentar os resultados na Wiki do time, juntamente com os planos de ação de melhoria contínua gerados.

Um exemplo de plano de ação gerado em relação à área Velocidade, por exemplo, foi o time ter evidenciado que os itens não estavam sendo concluídos dentro da Sprint planejada. Então, a ação discutida com todos será verificar o Capacity no momento do planejamento da Sprint, validando demandas comprometidas versus capacidade de entregas, gerando, assim, menos desperdício e maior desempenho. Outro ponto a ser avaliado será se as quebras das histórias de usuário estão adequadas.

A ideia é executar a dinâmica com o time uma vez a cada trimestre e, a partir da segunda vez, trazer comparativos dos números em relação à anterior. Por exemplo: no primeiro trimestre, as avaliações de facilidade no deploy estavam em 3,6; agora, no segundo trimestre, estão em 3,0. O que mudou de um trimestre para o outro? Por que baixou a avaliação? Buscando, assim, insights, correções e novos planos de ação.

Fontes de pesquisa

  • CWI Software
  • K21
  • Spotify

Outras publicações